JP6772129B2 - 移動ロボットにおける光学式走行距離センサの使用のためのシステム及び方法 - Google Patents

移動ロボットにおける光学式走行距離センサの使用のためのシステム及び方法 Download PDF

Info

Publication number
JP6772129B2
JP6772129B2 JP2017518191A JP2017518191A JP6772129B2 JP 6772129 B2 JP6772129 B2 JP 6772129B2 JP 2017518191 A JP2017518191 A JP 2017518191A JP 2017518191 A JP2017518191 A JP 2017518191A JP 6772129 B2 JP6772129 B2 JP 6772129B2
Authority
JP
Japan
Prior art keywords
mileage
optical
mobile robot
camera
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017518191A
Other languages
English (en)
Other versions
JP2018500624A (ja
Inventor
ロマノフ、ニコライ
ケース、ジェームズ、フィリップ
グリースト、ケネス
スウェット、デイヴィッド、オー.
Original Assignee
アイロボット・コーポレーション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=56009312&utm_source=***_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JP6772129(B2) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by アイロボット・コーポレーション filed Critical アイロボット・コーポレーション
Publication of JP2018500624A publication Critical patent/JP2018500624A/ja
Application granted granted Critical
Publication of JP6772129B2 publication Critical patent/JP6772129B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0253Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting relative motion information from a plurality of images taken successively, e.g. visual odometry, optical flow
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/027Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising intertial navigation means, e.g. azimuth detector
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/50Machine tool, machine tool null till machine tool work handling
    • G05B2219/50393Floor conveyor, AGV automatic guided vehicle
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/01Mobile robot
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/46Sensing device
    • Y10S901/47Optical

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Electromagnetism (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Manipulator (AREA)

Description

本明細書では、移動ロボットによって使用されるための、走行距離データ(odometry data)を捕捉するための光学式の走行距離センサ(odometry sensor)システムを提供するためのシステム及び方法が説明される。
多くのロボットはコンピュータによって制御される電気機械式の機械である。移動ロボットはその環境内を動き回る能力を有し、1つの物理的な位置に固定されない。現在一般的に使用される移動ロボットの1つの例として、自動搬送車(AGV:automated guided vehicle又はautomatic guided vehicle)がある。AGVは、通常、フロア内のマーカー又はワイヤをたどるか又はナビゲーションのためにビジョン・システム又はレーザを使用する移動ロボットと考えられる。移動ロボットは、産業、軍事及び警備の環境で見ることができる。移動ロボットはまた、娯楽のため、又は、真空掃除又は在宅支援などの特定のタスクを行うための、消費者製品としても見られる。
完全な自律を達成するために、移動ロボットは、使用者の介入なしにその環境を探索する能力を保有することを必要とする。移動ロボットは、環境内を航行するのに、種々の異なるセンサから収集される情報に依存する。多くの移動ロボットは、移動ロボットの移動した距離に関する情報を含むことができる走行距離データを得るのに、ホイール・オドメータに依存する。ホイール・オドメータは、一般に、移動した距離を決定するためにホイールの蓄積された回転を測定する。このような、走行距離測定の機械的直接接触による方法は、移動ロボット(ホイール、踏み面など)と表面との間でスリップのない直接的な機械的接触が高い信頼性で維持されるような用途では、高い信頼性を有する。しかし、同様の種類の表面の中でもとりわけ、深いカーペット、滑りやすい表面、泥状又は砂状の環境を含む、移動ロボットが頻繁に遭遇する可能性がある特定の種類の表面では、このようなスリップのない接触を維持することが困難となる。
本発明は、動作環境の中を航行するように構成された移動ロボットであって、本体を含み、本体は、移動の方向にロボットを並進運動させるように構成された駆動装置と、少なくとも1つのプロセッサと、ナビゲーション・アプリケーションを含むメモリと、本体の下側の凹形構造内に位置づけられ、光学式走行距離データを出力するように構成された光学式走行距離センサ・システムであって、本体の下方の追跡表面の画像を捕捉するように構成され、且つ、凹形構造内の第1距離から移動ロボット本体の下側の下方の第2の距離まで追跡表面を合焦して捕捉する視距離の範囲を提供する被写界深度を有するテレセントリック・レンズを含む光学式走行距離カメラ(odometry camera)を含む、光学式走行距離センサ・システムと、ジャイロスコープ測定データを出力するように構成されたジャイロスコープとを含む、移動ロボットを提供する。
複数の実施例において、ナビゲーション・アプリケーションは、プロセッサに、駆動装置の機構を作動して光学式走行距離センサ・システムから光学式走行距離データを、ジャイロスコープ・センサ・システムからジャイロスコープ測定データを捕捉し、捕捉された光学式走行距離データを使用して移動した距離を推定し、ジャイロスコープ測定データを使用して移動した方向を推定し、推定された移動した距離及び移動した方向を使用して姿勢の推定(pose estimate)を更新するように指示する。
複数の実施例において、ナビゲーション・アプリケーションは、プロセッサに、捕捉されたホイール走行距離データを使用して移動した距離を推定するように指示する。
多くの実施例において、ナビゲーション・アプリケーションは、プロセッサに、姿勢の推定を、移動ロボットの頂部表面の下に設置されたカメラによって検出された、撮像された特徴を使用して計算されたVSLAMの姿勢の決定(pose determination)に対して比較するように指示する。
特定の実施例において、ナビゲーション・アプリケーションは、プロセッサに、VLSAMの姿勢の決定が、移動ロボットが進行方向からズレていることを示す場合、姿勢の推定を再設定するように指示する。
複数の実施例において、テレセントリック・レンズは、ロボット本体の底部表面から−5から20mmの間の距離を含む距離において物体に合焦する被写界深度を有する。
多くの実施例において、移動ロボットは、追跡表面を照光するために、テレセントリック・レンズの周りに配置され、複数のLEDを含む複数の照明要素を含む。
特定の実施例において、複数のLEDの各々は、カメラの光学軸に対して鋭角をなすように位置づけられている。
いくつかの実施例において、複数のLEDは、カメラの周りの異なる位置に位置づけられた少なくとも4つのLEDを含む。
いくつかの実施例において、LEDの対は、カメラに対して反対側に位置づけられている。
いくつかの実施例において、LEDは、カメラの光学軸からずらされた螺旋パターンに位置づけられている。
複数の実施例において、駆動装置の機構は複数の車輪を含み、移動ロボットは、複数の車輪の各々の回転に基づいてホイール走行距離データを出力するホイール走行距離センサ・システムをさらに含む。
いくつかの実施例において、光学式走行距離センサ・システムは、光学式走行距離データの信頼性を示す品質尺度も出力し、ナビゲーション・アプリケーションは、品質尺度が閾値を満たす場合に、プロセッサに、捕捉された光学式走行距離データを使用して移動した距離を推定するように指示する。
特定の実施例において、品質尺度は、画像内で検出される有効な特徴の数に基づく。
本発明のいくつかの実施例は、動作環境の中を航行するように構成される移動ロボットであって、本体を含み、本体は、移動の方向にロボットを並進運動させるように構成された駆動装置と、少なくとも1つのプロセッサと、ナビゲーション・アプリケーションを含むメモリと、本体の下側の凹形構造内に位置づけられ、光学式走行距離データを出力するように構成された光学式走行距離センサ・システムであって、フロア表面から40から60mmの間の高さに位置づけられた光学式走行距離カメラであって、本体の下方の追跡表面の画像を捕捉するように構成され、且つ、ロボット本体の底部表面から−5から20mmの間の距離を含む距離において物体に合焦している被写界深度を有するテレセントリック・レンズを有する光学式走行距離カメラを備える、光学式の走行距離センサ・システムと、ジャイロスコープ測定データを出力するように構成されたジャイロスコープとを含む、移動ロボットを提供する。
いくつかの実施例においては、凹形構造は、10mmから40mmの間の直径を有する開口部を有する。
複数の実施例においては、本体は、フロア表面から最大で110mmである頂部表面を有する。
多くの実施例においては、光学式走行距離カメラの被写界深度は、光学式走行距離カメラの焦点距離に比例する。
特定の実施例においては、光学式走行距離カメラの焦点距離は15〜25mmの間である。
いくつかの実施例においては、移動ロボットは、追跡表面を照光するために、テレセントリック・レンズの周りに配置された4つのLEDをさらに含む。
特定の実施例においては、各LEDは、垂直から10から20度の間の角度である。
本発明の複数の実施例は、環境内での移動ロボットの位置を決定するための方法であって、ホイール走行距離センサ・システム、光学式走行距離センサ・システム、及び、慣性測定ユニット(IMU:inertial measurement unit)・センサ・システムからセンサ・データを受信することと、ホイール走行距離センサ・システムからのデータをIMUセンサ・システムからのデータと比較することと、光学式走行距離センサ・システムからのデータをIMUセンサ・システムからのデータと比較することと、比較に基づいて信頼性の高い、データの組を特定することと、このデータの組に基づいて移動ロボットの位置を決定することとを含む方法を提供する。
いくつかの実施例においては、ホイール走行距離センサ・システムからのデータをIMUセンサ・システムと比較することは、ホイール走行距離センサ・システムから受信されたデータがIMUセンサ・システムから受信されたデータと矛盾するか否かを決定することを含む。
特定の実施例においては、この方法は、ホイール走行距離センサ・システムから受信されたデータがIMUセンサ・システムから受信されたデータと矛盾する場合に、ホイール走行距離センサ・システムからのデータを信頼できないものとして特定することをさらに含む。
いくつかの実施例においては、この方法は、IMUセンサ・システムからのデータがズレ(drift)を示しているか否かを決定することと、データがズレを示している場合に、ホイール走行距離システムからのデータを信頼できないものとして特定することとをさらに含む。
特定の実施例においては、この方法は、IMUセンサ・システムからのデータがズレを示しているか否かを決定することと、データがズレを示していない場合に、ホイール走行距離センサ・システム及び光学式センサ・システムの両方からのデータに基づいて移動ロボットの位置を決定することとをさらに含む。
特定の実施例においては、光学式走行距離センサ・システムからのデータをIMUセンサ・システムと比較することは、光学式走行距離センサ・システムによって提供されるデータのSQUAL値が閾値を超えるか否か決定することを含む。
いくつかの実施例においては、移動ロボットの位置を決定することは、VSLAMセンサを使用することを含む。
光学式走行距離カメラを組み込む移動ロボットの正面斜視図である。 光学式走行距離カメラを組み込む移動ロボットの底面図である。 複数の光学式走行距離カメラを組み込む移動ロボットの底面図である。 光学式走行距離カメラを含む凹形構造を組み込む移動ロボットの本体の部分の図である。 光学式走行距離カメラを含む凹形構造の断面図である。 光学式走行距離カメラに対するLEDの配置の概念図である。 光学式走行距離カメラの被写界深度を示す、光学式走行距離カメラを含む凹形構造の断面図である。 移動ロボットが傾斜しているときの、特定の高さの平坦表面に対しての光学式走行距離カメラの被写界深度を示す、光学式走行距離カメラを含む凹形構造の断面図である。 カーペットを敷いた表面に対しての光学式走行距離カメラの被写界深度を示す、光学式走行距離カメラを含む凹形構造の断面図であり、ここでは、カーペットの立ち毛が凹形構造の中に侵入している。 ロボットの制御装置により行動制御アプリケーション(behavioral control application)を実行することを概念的に示す図。 ロボットの制御装置を概念的に示す図。 異なる種類の走行距離センサによって捕捉される走行距離データを使用するためのプロセスを示すフロー・チャートである。 異なる種類の走行距離センサによって捕捉される走行距離データを使用するためのプロセスを示すフロー・チャートである。 テレセントリック・レンズの周りのLED構成の実装形態を示す概略図である。 テレセントリック・レンズの周りのLED構成の実装形態を示す概略図である。 テレセントリック・レンズの周りのLED構成の実装形態を示す概略図である。 テレセントリック・レンズの周りのLED構成の実装形態を示す概略図である。
次に図面を参照すると、移動ロボット100の凹形構造210内に含まれる光学式走行距離センサ・システム205を使用して走行距離データを獲得するためのシステム及び方法が示されている。移動ロボット100は、デッド・レコニングを実施するために、光学式走行距離センサ・システム205を利用することができる。デッド・レコニングは、前に決定された位置、及び、移動ロボット100の移動に関する情報に基づき、移動ロボットの現在の位置を計算することを伴うプロセスである。移動ロボット100は、移動した距離、移動方向、速度及び/又は加速度を含む(これらに限定されない)、デッド・レコニングのために使用される異なる種類の情報を含み得る、走行距離データを獲得するために光学式走行距離センサ・システム205を使用することができる。光学式走行距離センサ・システム205は、その上を移動ロボット100が横断する表面の画像を捕捉する、1つ又は複数の光学式走行距離カメラ440(すなわち、マウス・カメラ)を、任意選択で有することができる。本発明の別の任意選択の態様では、光学式走行距離センサ・システム205は、光学式走行距離カメラ440に見える追跡表面を照らす、1つ又は複数の照光源を有する。本発明の別の任意選択の態様では、光学式走行距離カメラ440は、毎秒1000フレームを超えるフレーム率で動作することができ、追跡表面の小さいパッチの画像を捕捉する。光学式走行距離センサ・システム205は、継続して、光学式走行距離カメラ440によって捕捉される各画像をその前の画像と比較し、観測されるオプティカル・フローに基づいて移動ロボット100の相対運動を推定する。
表面の画像を捕捉するために、1つ又は複数の光学式走行距離カメラ440が、移動ロボット本体108の下側に位置し、移動ロボット100の下方のフロア表面の方向に向けられてよい。光学式のコンピュータ・マウスで使用される光学式走行距離システムなどの、一般的な用途で使用される光学式走行距離センサは、通常、光学式走行距離カメラ440が追跡表面から一定の距離のところに位置することを想定し、浅い被写界深度を有する光学式走行距離カメラ440を利用する。多くの用途で、移動ロボット100は、多種多様な表面の上を航行するように構成され、追跡表面が光学式走行距離カメラ440から一定の距離に留まるという仮定は有効ではない。移動ロボット100が異なる種類の表面の間の移行部分を航行するとき、移動ロボット本体108が傾斜し、それにより光学式走行距離カメラ440と追跡表面との間の距離が増大する可能性がある。移動ロボット100が平坦ではない表面の上を航行する場合にも、同じことが当てはまる。移動ロボット100がプラッシュ・カーペットの立ち毛(これに限定しない)などの圧縮可能な表面を横切って航行するとき、移動ロボット100の車輪が圧縮可能な表面に沈み込み、光学式走行距離カメラ440と追跡表面との間の距離を減少させる可能性がある。さらに、移動ロボット100の下側とカーペットの立ち毛などの圧縮可能な表面との間の距離は、平坦なフロアと比較してカーペット繊維が概してカメラにより接近して、継続的に変化する可能性がある。したがって、移動ロボット100の本体108は、任意選択で、光学式走行距離カメラ440及び付随の照光源を含む移動ロボット本体108の下側に凹形構造を有することができる。光学式走行距離カメラ440を奥まった場所に置くことにより、より広範囲の被写界深度を有する光学式走行距離カメラ440を使用することが可能となり、それにより、光学式の走行距離カメラが、特定の用途での移動ロボット100の動作中に追跡表面に遭遇しやすいような距離範囲を包含する、光学式走行距離カメラ440からの距離の比較的広い範囲において、追跡表面の焦点の合った画像を捕捉することが可能となる。カメラ構成の被写界深度は、その間において、依然として焦点が合っている又は許容可能な範囲で焦点が合っていない状態で画像を捕捉することができる距離範囲を定める。この許容可能な範囲の外にある対象は、走行距離データを計算するのに使用するのには有用ではない可能性がある。とりわけ、光学式走行距離センサ・システム205は、画像が許容可能な焦点範囲を超えているときは、画像間での追跡可能特徴の変位を検出することができない可能性がある。任意選択の一構成では、光学式走行距離カメラ440の被写界深度は、光学式走行距離カメラ440を含む凹形構造内において追跡表面の少なくとも一部分が延在するような距離を含む距離範囲に及ぶ。
いくつかの用途で、移動ロボット100は、フロア表面から4インチ(あるいは、約110mm)以下である頂部表面106を有し、且つ、フロア表面の上方1/2インチ(あるいは、約10mm)以下に乗っている底部表面107を有するハウスクリーニング・ロボット100として構成される。ロボット100の底部表面107もしくは下側は、移動ロボットがその上に載置されているフロア表面に比較的接近して位置する。この構成では、移動ロボット100は、カメラから約20ミリメートルから40ミリメートルの範囲の被写界深度を有するテレセントリック・レンズ442を有する奥まった場所にある光学式走行距離カメラ440を使用して構成され得る。この距離範囲により、堅木の床と同様の高さ(例えば、カメラの下方約20〜30mm)の表面及びカーペットの高さ(例えば、カメラの下方約5〜20mm)の表面について焦点の合った画像を捕捉することが可能になる。光学式走行距離カメラ440の被写界深度はまた、フロア表面が平坦ではないこと、及び/又は、異なる高さの表面の間の移行部分を移動ロボット100が横断することを原因とする、光学式走行距離カメラ440と、フロア表面又は追跡表面との間の距離の増大を受け入れることができる。
移動ロボット100の特定の任意選択の構成では、光学式走行距離カメラ440は追跡表面の画像を捕捉するためにテレセントリック・レンズ442を使用する。テレセントリック・レンズは、通常、距離に関係なく対象の一定の倍率を提供することを特徴とする。テレセントリック・レンズを使用することで、光学式走行距離カメラ440からの追跡表面の距離に関係なく、光学式走行距離センサ・システム205が追跡表面上の特徴のオプティカル・フローを正確に決定することが可能となる。広い被写界深度を有するテレセントリック・レンズ442を提供することにより、移動ロボット100は、追跡表面までの距離を決定しなくとも、移動ロボット100から多様な深さのところにある追跡表面からオプティカル・フローを正確に決定することができるようになる。
多くの用途で、移動ロボット100は、走行距離データを捕捉するのに光学式走行距離センサ・システム205に主に依存しているが、移動ロボットは、ノイズ、及び/又は追跡表面上の追跡可能な特徴の欠如を含む(これらに限定されない)理由によって、取得した光学式走行距離データの精度が特定の閾値レベル未満である場合には、他の種類の走行距離センサによって捕捉される走行距離データを使用し得る。走行距離データが最低レベルの信頼性未満であると(例えば、最小のSQUAL値及び/又は矛盾するIMU値に基づいて)移動ロボット100が決定した場合に、ホイール走行距離センサ・システムなどの高頻度でサンプリングを行う別のセンサによって捕捉される走行距離データに依存するように、移動ロボットは、任意選択で構成され得る。ホイール走行距離センサ・システムは、移動ロボット100の車輪の回転を分析することにより走行距離データを捕捉することができる。別の任意選択の構成では、移動ロボット100は、光学式走行距離システム及び/又はホイール走行距離センサ・システムによって提供される走行距離データを、走行距離データの精度を再確認するために、慣性測定ユニット(IMU)によって捕捉される加速度計及びジャイロのデータと比較し、例えば、マウス・センサが移動を視認しない場合にロボット100が移動していないことをIMUが感知していることを確認することができる。異なる種類のセンサ・デバイスによって捕捉される走行距離データを比較することにより、移動ロボット100は、異なるデイバスからのデータの類似性に基づき、光学式走行距離データの精度に関しての信頼水準を上げる(又は、下げる)ことができる。実装形態では、移動ロボット100は、局所的な位置を決定するために高頻度のセンサ読取値をとり(例えば、ホイール走行距離及びIMU、並びに/或いは、光学式走行距離及びIMU)、動かない目印の特定の領域に向けられる、FOVを有するイメージング・センサによって捕捉される、よりゆっくりサンプリングされるVSLAMローカライゼーション・データを使用して環境内でのロボットの姿勢(pose)の全体的な決定を行う。
高頻度の走行距離データを全体的なセンサ読取値で補足することにより、ロボット100は、全体座標系及び/又は環境の永続的なマップの中での正確な姿勢を決定し、姿勢の決定において矛盾が存在する場合には高頻度の局所的な位置データを無視し、調整し、及び/又は、再設定する。特定のセンサは、他の環境においてより低い精度で機能する一方で、特定の環境内で、より良い精度で機能することができる。例えば、光学式走行距離センサ・システム205は、木目などの多くの追跡可能な特徴を含むフロア表面上を移動するときに正確なデータを提供するが、追跡可能な特徴をほとんど有さない滑らかなセラミック・タイル・フロア上を移動するときは精度を失う可能性がある。同様に、ホイール走行距離計は、その上では駆動輪220が良好なトラクションを有する、硬い床張り材などの床張り材表面上では正確な読取値を提供することができ、車輪が、ロボット100が摩擦抵抗力を受ける場合に大きくスリップしたり、及び/又は、カーペットのけばにより車輪が直線的な進行方向からずらされる場合にカーペットによるドリフト(carpet drift)を受ける可能性があることから、深いカーペットを敷いたフロア上を移動するときは低い精度の読取値を提供し得る。
多数の実装形態において、ロボット100は、3軸加速度計を3軸ジャイロメータ(以下、「ジャイロ」と称す)と組み合わせる6軸IMUなどのIMUを有する。高い頻度でサンプリングされるホイール走行距離及びマウス走行距離(mouse odometry)データをIMUデータと比較することにより、ロボット100は、ホイール走行距離計及びマウス・センサが移動を適切に報告しているか否かを決定する。例えば、移動を正確に検出するために光学式センサが追跡し使用する特徴があまりにも少ない滑らかな表面上をロボット100が移動しているときは、移動ロボット100は、その環境内でのロボット100の位置を特定するために、光学式センサのデータを無視し、他のセンサ読取値のうちの1つ又は複数の読取値を自動的に選択するであろう。

光学式走行距離センサ・システムを備える移動ロボット
上述したように、移動ロボット100は、環境内を通る移動ロボットのナビゲーションで使用され得る走行距離データを収集するのに使用される光学式走行距離カメラ440を含む光学式走行距離センサ・システム205を組み込む。移動ロボット100が図1〜2に示されている。特に、図1は移動ロボット100の正面斜視図を示し、図2は、光学式走行距離センサ・システム205を含む凹形構造210が見える、移動ロボット100の底面図を示している。
図1に示される移動ロボット100の構成では、移動ロボット100は、フロア表面を横断してロボット100を操作することができる駆動装置(本体108の下方に位置し、したがってこの図では見ることができない)によって支持される本体108を有する。複数の実施例では、移動ロボット100は、駆動コマンドに基づいてその駆動装置を作動させるように構成される。いくつかの実施例では、駆動コマンドは、x、y及びθの成分を有することができ、制御装置回路によってコマンドが発せられ得る。移動ロボットの本体108は、本体108の前側半分に相当する前方部分105と、本体108の後方半分に相当する後方部分110とを有することができる。示されている構成では、駆動装置システムは、制御装置回路に走行距離を提供することができる右側及び左側の被駆動車輪モジュール220を含む。示されている実施例では、車輪モジュール220は、本体108によって画定される横軸に沿って実質的に反対側にあり、それぞれの車輪を駆動するそれぞれの駆動モータを含む。駆動モータは、駆動モータが任意選択でそれぞれの車輪のほぼ上に位置づけられて、本体108に(例えば、固定具、又は、工具なしの接続を介して)着脱自在に接続され得る。車輪モジュール220は、シャーシに着脱自在に取り付けられ、ばねにより清掃表面に係合され得る。移動ロボットは、ここでは円形の本体108の前方部分である、移動ロボット本体108の一部分を支持するように配置されるキャスタ・ホイール(図示せず)を含むことができる。四角い正面の又は墓石形状のロボット本体108などの、片持ち式の清掃ヘッドを有する他の実装形態では、キャスタ・ホイールは、ロボット本体108の後方部分に配置される。移動ロボット本体108は、移動ロボットの任意の電気部品に電力供給するための電源(例えば、バッテリ)を支持する。上記では図1を参照して具体的な駆動機構を説明したが、移動ロボットは、特定の用途の要求に適する多様な任意選択の駆動機構のうちのいずれかを利用することができる。
多くの実施例で、本体108の前方部分105は、移動ロボットの駆動経路内にある障害物を含む(これに限定されない)事象を(例えば、1つ又は複数のセンサを介して)検出するのに利用され得るバンパ115を担持する。移動ロボットの行動プログラム(behavioral programming)に応じて、制御回路は、バンパによって検出される事象(例えば、障害物、崖、壁)に、その事象に応じてロボット100を操縦する(例えば、障害物から離す)よう車輪モジュール220を制御することによって、反応することができる。
示されているように、ユーザ・インターフェース130が本体108の頂部分上に配置され、1つ又は複数のユーザ・コマンドを受信し、並びに/或いは移動ロボット100の状態を表示するのに使用され得る。ユーザ・インターフェース130は、ユーザ・インターフェースによって受信される1つ又は複数のコマンドによって、移動ロボット100による清掃ルーチンの実行を開始することができるよう、移動ロボット100によって担持されるロボットの制御回路と通信状態にある。
移動ロボット100は、移動ロボット100のトップ・カバー内に埋め込まれた機械視覚システム120を含むこともできる。機械視覚システム120は、周囲の環境の画像を捕捉する1つ又は複数のカメラ(例えば、標準的なカメラ、容積型点群画像化カメラ(volumetric point cloud imaging camera)、三次元(3D)画像化カメラ、深度マップ・センサ(depth map sensor)付きカメラ、可視光カメラ、及び/又は、赤外線カメラ)を含みうる。いくつかの実施例では、カメラ120は、ロボット100の頂部表面と鋭角をなすような光学軸を有するように位置づけられ、カメラ120は、移動ロボット100の移動方向に方向付けられた視界を有する。これらの実施例では、主に、通常の屋内環境において移動ロボットを囲む壁及び天井の画像を捕捉するように、カメラのレンズは上側方向に角度をつけられる。例えば、フロア表面から4インチ以下である頂部表面を有するロボット100の実装形態では、垂直方向において約50度の円錐台に及ぶ視界を有し且つ水平方向から上方に約30度の角度をつけられた光学軸を有する、ロボット100の頂部表面の下に設置されるカメラは、概して3〜14フィートの高さにある環境内の特徴を検出することになる。例えば、このようなカメラの設定を有するこのような寸法のロボットは、3フィートの距離で約6インチから4.5フィートの高さ、5フィートの距離で約9インチから7.5フィートの高さ、10フィートの距離で約1.2フィートから14フィートの高さにある対象を視認することになる。ドア枠、額縁、及び、他の動かない家具や対象の周りで撮像される特徴などの、特徴が変化しない領域にカメラ120の焦点を合わせることにより、ロボット100は信頼できる目印を繰り返し特定することができ、それにより環境内で位置の特定及びマッピングを正確に行うことができる。
機械視覚システム120によって捕捉される画像は、移動ロボットの動作環境に基づいて行われるアクションに関する知的決定を行うために、VSLAMプロセスによって使用され得る。機械視覚システム120は移動ロボットの頂部に埋め込まれるものとして本明細書では説明されるが、カメラ120は、加えて又は別法として、移動ロボットのフロント・バンパ、底面、及び/又は、周囲側部に沿った位置を含む、移動ロボット上の種々の異なる位置のうちのいずれかに配置されてもよい。
機械視覚システム120に加えて、移動ロボット100は、任選選択で、信頼できる堅牢な自律移動を達成するために、種々のセンサ・システムを含むことができる。追加のセンサ・システムは、その環境内で行われるアクションに関しての知的決定を移動ロボット100が行うことができるのに十分に移動ロボットの環境を知覚するように互いに協働して使用され得る。上述したように、移動ロボットに含まれるセンサ・システムのうちの1つは、走行距離データを捕捉する光学式走行距離センサ・システム205である。いくつかの実施例では、光学式走行距離センサは、その上を移動ロボットが移動する追跡表面の画像を捕捉するために、移動ロボット本体108の下に配置される1つ又は複数の光学式走行距離カメラ440を含む。各光学式走行距離センサ・システム205は、移動ロボットの下の追跡表面の方に直接に向けられるように配置されたカメラを含む。
示されている構成では、光学式走行距離カメラ440は、追跡表面から約40〜60mm(例えば、45mm、50mm、60mm)の高さの、凹形構造210内に配置されている。光学式走行距離カメラ440は、概ね−5から+15mmの焦点距離、もしくは全体で約20mmの焦点距離に及ぶカメラからの距離の範囲で画像を捕捉するように構成されるテレセントリック・レンズを含む。光学式走行距離カメラ440の被写界深度は焦点距離に比例する。カメラによって捕捉された、追跡表面の焦点の合った、または許容できる程度でぼやけた画像を使用して、光学式走行距離センサ・システム205は、画像を捕捉した時間に基づいて画像のオプティカル・フローを分析することにより、移動ロボット100が移動した距離を算出することができる。走行距離データは、VSLAMプロセスを含む(これに限定されない)種々のナビゲーション・プロセスのうちのいずれでも使用され得る。
移動ロボット100はまた、環境内での移動ロボットの移動に関する情報を提供することができるその他のセンサの中でもとりわけ、ホイール走行距離センサ、ジャイロスコープ、加速度計、全地球測位システム(GPS:global positioning system)、コンパスを含む、種々の他の種類のセンサを使用して移動情報を捕捉することができる。異なる移動センサによって提供される移動情報は、新たな種類の情報(例えば、移動ロボットの移動方向、向き、加速度、GPS座標など)、及び/又は、異なる機構を通して捕捉される同じ種類の情報(例えば、ホイール式及び光学式の走行距離計が、両方とも、移動した距離に関する情報を提供することができる)を含むことができる。
さらに、種々のセンサ・システムが、ロボット本体108によって支持される、障害物検出・障害物回避(ODOA:obstacle detection obstacle avoidance)センサ、通信センサ、ナビゲーション・センサ、距離測定センサ、近接センサ、接触センサ、ソナー、レーダー、LIDAR(遠くにあるターゲットの距離及び/又は他の情報を見出すために散乱光の特性を測定する光学的リモート・センシングを伴い得る光検知測距(Light Detection And Ranging))、及び/又は、LADAR(Laser Detection And Ranging(レーザ検知測距))を含むが、これらに限定されない、1つ又は複数の種類のセンサをさらに含み得る。移動ロボットのいくつかの任意選択の構成では、センサ・システムは、測距ソナー・センサ(ranging sonar sensor)、近接崖検出器(proximity cliff detector)、接触センサ、レーザ・スキャナ、及び/又は、イメージング・ソナーを含む。
ロボットのプラットフォーム上にセンサを配置することにはいくつかの課題がある。1つ目は、センサは、通常、移動ロボットの周りの対象領域を最大源にカバーするように配置されることである。2つ目は、センサは、通常、ロボット自体によりセンサが塞がれることを絶対的に最小とするように配置されることであり、本質的には、センサはロボット自体により隠れることになるように配置されるべきではない。したがって、センサは、通常のロボットの動作に干渉しない(例えば、障害物にひっかからない)ように設置されるべきである。特に光学式走行距離センサ・システムの配置に関連して、移動ロボット100は、光学式走行距離センサ・システム205が、移動ロボット本体108の下側内に形成される凹形構造210内に位置するように構成され得る。凹形構造を使用することにより、光学式走行距離カメラ440は、(1)移動ロボットの下の表面の画像を捕捉すること、(2)カメラを損傷させる可能性がある物体との接触を回避すること、及び、(3)種々の異なる距離で焦点の合った画像を捕捉することができる光学式のシステムを有すること、が可能である。
本発明の実施例による移動ロボット100の下側に関する1つ又は複数の光学式走行距離センサ・システムの配置が図2A〜2Bに示される。図2Aは、円形の移動ロボット本体108の下側の右前方領域内に配置される光学式走行距離センサ・システム205を含む凹形構造210を示す。図2Aは、右側及び左側の車輪モジュール220と、サイド・ブラシ230と、清掃組立体240とを含む、移動ロボット100に任意選択で含まれ得る種々の他の構成要素も示す。
図2Bは、移動ロボット100の下側の反対側に位置する2つの光学式走行距離センサ・システム205、250を示す。2つ以上の光学式走行距離センサ・システムを備える移動ロボット100を構成することにより、走行距離データの精度を向上させることができる。2つの光学式走行距離センサ・システム205、250を使用することにより、各々の個別の光学式走行距離センサ・システムによって生成されている走行距離データを照合することが可能となる。さらに、光学式走行距離センサ・システム205、250のうちの一方が適切に機能しない場合、移動ロボット100は、走行距離データを収集するのにもう一方の光学式走行距離センサ205、250システムに依存することができる。
図3は、光学式走行距離センサ・システムを含む凹形構造210をより詳細に示す。示されるように、光学式走行距離カメラ440は、移動ロボット本体の下側の円形の凹形構造210内に配置される。凹形構造210は、異物又はデブリ(FOD:foreign objects or debris)を取り除くために人間の指を中にはめ込むのに十分な大きさの直径211を有することができる。いくつかの実装形態では、凹形構造210の直径は0.5から1.5インチの間(例えば、0.5から1インチ、0.75から1.5インチ、0.5から0.75インチ、0.75から1インチ)である。光学式走行距離カメラ440の光学軸は、移動ロボット100が表面に沿って移動する間、カメラが追跡表面の画像を捕捉することができるよう、外側に向けられる。

光学式走行距離センサ・システムの構造
上述したように、光学式走行距離センサ・システムは、表面の画像を捕捉して、走行距離データを算出するのにその画像を使用する光学式走行距離カメラ440を含むことができる。光学式走行距離カメラ440は毎秒1000フレームを超えるフレーム率で動作し、追跡表面の小さいパッチの画像を捕捉する。実装形態では、図13Dに示されるように、画像パッチ1330は約1mm×1mm(例えば、0.5mm×0.5mm、0.5mm×0.75mm、0.5mm×1mm、0.75mm×1mm、1.5mm×1.5mm)である。光学式走行距離センサ・システム205は、移動ロボットの相対運動を推定するために、オプティカル・フローを使用して、継続して、光学式走行距離カメラ440によって捕捉される各画像内の追跡可能な特徴の変位をその前の画像と比較する。光学式走行距離カメラ440が、オプティカル・フローの決定において使用するための焦点の合った画像を捕捉するために、追跡表面は、カメラからの、光学式走行距離カメラ440の光学軸の被写界深度内にある許容可能な焦点範囲内に留まる距離に位置しなければならない。例えば、許容可能な焦点範囲は、凹形構造210の中まで延在するカーペット並びにスレートなどの山及び谷を有するタイルを含むようなものである。実装形態では、画像パッチ1330は22ピクセル×22ピクセルであり、光学式走行距離カメラ440の許容可能な被写界深度は、1つのピクセルが隣接するピクセルににじむまで画像パッチ1330をぼけさせることによって決定される。許容可能なぼけの大きさは、例えば、画像パッチ1330内のピクセル間でにじませることなく、又は画像パッチ1330内で最大2つの隣接するピクセルをにじませて、ピクセルをぼけさせるような被写界深度であり得る。
任意選択の一構成では、光学式走行距離カメラ440は、光学式走行距離カメラ440から種々の距離のところに位置する追跡表面の、焦点の合った及び/又は許容される程度でぼける画像を捕捉することができるような比較的広い被写界深度を有するように構成される。別の任意選択の構成では、移動ロボットは、広い被写界深度を有する光学式走行距離カメラ440の使用を考慮に入れるために移動ロボット本体108の下にある凹形構造を使用することができる。奥まった場所にある光学式走行距離システムを収容するのに使用され得る凹形構造210の実例が図4に示されている。
図4は、光学式走行距離カメラ440が移動ロボット本体108内の凹形構造210内に設置される、移動ロボット100の任意選択の構成の断面図を概念的に示している。示されるように、光学式走行距離カメラ440は移動ロボット本体108の下の凹形構造内に含まれる。凹形構造210は開口部410を有する。光学式走行距離カメラ440のセンサ430、及び、オプティクス440は、凹形構造内の開口部410を通して画像を捕捉するために凹形構造210内に位置する。凹形構造210は、任意選択で、カメラ440のオプティクスと開口部410との間に空洞を形成するように構成され得る。後でさらに論じるように、カーペットなど(これに限定されない)の特定の表面が空洞内に侵入する可能性がある。後で論じるように、移動ロボット100は、凹形構造210の内部の距離と、凹形構造210の開口部410を越える距離とを含む距離範囲にわたって広がる被写界深度を有する光学式走行距離カメラ440とともに、任意選択で構成され得る。凹形構造210のすべての表面は、カメラ440がそれらの表面上に収集されるいかなる埃もセンサ430に映るように、焦点から外される。任意選択の一構成では、凹形構造210は、異物又はデブリ(FOD)を取り除くために人間の指を中にはめ込むのに十分な大きさの直径211を有する。いくつかの実装形態では、凹形構造210の直径211は0.5から1.5インチ、あるいは、約10mmから40mmの間(例えば、0.5から1インチ、0.75から1.5インチ、0.5から0.75インチ、0.75から1インチ)である。
移動ロボット100の多くの実施例は、移動ロボット100が環境内を通って移動する間において、物体が、カメラ440のレンズ・カバー441を含め、カメラを損傷させる可能性を排除するために、追跡表面のかなり上方に光学式走行距離カメラ440を配置するように凹形構造を使用する。容易に認識され得るように、追跡表面及び/又は追跡表面上に位置する物体との接触を回避しやすいような高さに光学式走行距離カメラ440を位置させることにより、光学式走行距離カメラ440への損傷の可能性を大幅に低減することができる。
さらに、実装形態では、凹形構造210の開口部410は、ロボット100の底部表面に位置合わせされ、ロボット100の下方のフロア表面から約10mmのところにある。凹形構造210は、約15〜25mm(例えば、17mm、18mm、19mm、20mm)の焦点距離と、ピンホール・アパーチャと、40〜60mm(例えば、45mm、50mm、55mm)の被写界深度とを有する光学式走行距離カメラ440を収容する。したがって、実装形態では、光学式走行距離カメラ440は、例えば−5mmから15mm、合計で20mmの範囲の、許容可能な焦点範囲の範囲内にある、移動ロボットの下方の種々の距離に位置する表面から走行距離データを収集するように構成される。実例では、光学式走行距離カメラ440は、−5mmから15mmの焦点範囲のために必要な被写界深度を得るために、凹部構造内の、ロボットの底部から約40〜60mm(例えば、45mm、50m、55mm)の距離に位置づけられる。とりわけ、このようなカメラ構成は、硬いフロア表面(例えば、堅木の床)、及び、カメラからの距離が約20〜25mmだけ変化する可能性が高い、より接近するフロア表面(例えば、プラッシュ・カーペット)の、焦点の合った画像を捕捉する被写界深度を提供する。
いくつかの実装形態では、光学式走行距離カメラ440は、カメラ440の視界内でのそれらの深さに関係なく、光学式走行距離センサ・システム205が対象の正確なサイズを決定できるようにするテレセントリック・レンズ442を使用する。テレセントリック・レンズは、その距離とは関係なく対象の一定の倍率を有する。一定の倍率を有する光学式走行距離カメラ440を利用することにより、光学式走行距離センサ・システム205は、オプティカル・フローの大きさを調整するために、追跡表面までの距離を決定するのを必要とすることなく、オプティカル・フローから移動の大きさを決定することができる。
光学式走行距離センサ・システムは、光学式走行距離カメラ440によって撮像されている追跡表面を照光するためにLED又はレーザを使用することができる。凹形構造内に光学式走行距離カメラ440を配置することにより、多くの実施例が、追跡表面を一様に照光するようなLEDのデザインを定めることもできる。追跡表面を照光するのに利用され得る種々の任意選択のLED構成を以下で論じる。

複数のLEDを組み込む光学式走行距離センサ・システム
多くの光学式走行距離センサ・システムが、追跡表面を照光するのに単一のLEDを使用する。しかし、LEDを1つのみ使用することにより表面の照光はしばしば一様ではなくなり、照光されている表面の形状に基づいて陰を含みやすくなる。例えば、カーペットが1つのLEDによって照光されているとき、照光されているカーペットの特定の撚糸に対するLEDの位置に基づいて、陰が見える可能性がある。より一様に照光される画像は、より正確な走行距離データを提供することができる。
図4及び5を参照すると、追跡表面を一様に照光するために、実装形態では、光学式走行距離センサ・システム205は、カメラ・レンズ442の周りに位置する少なくとも2つのLEDによって囲まれる光学式走行距離カメラ440を含む。カメラ・レンズ442を囲むように位置する4つのLEDを備える光学式走行距離カメラ440の実例が図5に示されている。特に、図5は、システムの光学式走行距離カメラ・レンズ442の周りに位置する4つのLED510を含む光学式走行距離カメラ440を示す。4つのLED510を使用することにより、捕捉される画像内で可視となる可能性がある陰を低減するより一様な光の量で、表面520の画像が捕捉され得る。加えて、4つの小さいLED510の発光の一部又はすべてを重ね合わせることにより、図4及び5の構成は、フロアを撮像するための十分な組み合わせの照光を提供する。さらに、ここでは、オプティカル・フローを決定するのに使用されるための捕捉される画像内で、表面のテクスチャ及び追跡可能な特徴のより多くが可視となり得る。多くの実施例において、各LED510は、追跡表面の照光の一様性を向上させるように角度をつけられる。いくつかの実施例では、各LED510は、カメラを保持する凹形構造410に基づいて表面を最適に照光(例えば、フロア表面520上の追跡可能な特徴を、陰を発生させずに照光)するために、垂直から約10〜20度(例えば、12度、15度、17度)で角度をつけられる。いくつかの実装形態では、組み合わされた照光のために、LEDの発光円錐(emission cone)511は表面上で重なり合い、また、他の実装形態では、発光円錐が収束しない。
図13A〜13Bが示すように、一実例では、4つのLED1310、1315、1320、1325が、視界の中間距離d2においてそれらの発光が光学式走行距離カメラ440のテレセントリック・レンズの光学軸1305上に収束するように、角度をつけられる。この中間距離d2では、4つのLED1310、1315、1320、1325のすべてからの照光が円形で重なり合い、照光される円の外側縁部のところで明度が低下することから使用可能な画像パッチ1330が収束する円内の領域に限定され、それにより、照光される領域の一部分だけが追跡のために有用となる可能性がある。図13C及び13Dの実装形態では、4つのLED1310、1315、1320、1325はそれぞれ、それらの発光がテレセントリック光学系走行距離カメラ・レンズ442の光学軸1305からずれるように、方向を定められている。したがって、4つのLED1310、1315、1320、1325からの発光は単一の円に収束しない。代わりに、図13Dに示されるように、発光の各々は重複パッチ1335a〜1335dで他の2つの発光と重なり合い、4つのLED1310、1315、1320、1325によって照光される追跡可能な領域が、完全に収束する実装形態の場合よりもより大きくなる。この螺旋照光パターンは明度の低下する領域をほとんどなくし、画像パッチ内で追跡可能な特徴を検出するための照光カバー領域(illuminated coverage area)を大きくする。より厳密には、図13C〜Dの螺旋照光パターンは、カメラをあふれさせ(flood)て撮像されるエリアの残りの部分を洗い流してしまう(wash out)ような輝点の一切ない、カメラ400の下方の表面の均等な照光を提供する。したがって、図13C〜Dの螺旋パターンは、1箇所に重なり合う4つの光の照射のすべてよりも少ない照光を提供する。いかなる一つの領域においても高々2つのLEDからの2つの光の照射のみが重なり合うことにより、カメラ440の下方の表面上への照光は、画像に大きく影響し、強い輝点の周りの、さもなければ知覚可能な細部を洗い流してしまうような閾値レベルの明度未満の光の強さで維持される。

多様な表面で使用されるための光学式走行距離センサ・システム
ある距離範囲にわたって焦点の合った画像を捕捉することができる光学式走行距離カメラ440は、移動ロボットが、移動ロボットの下側の下方の異なる距離にあり得る異なる種類の表面を横断して移動する場合に、特に有用となり得る。図6〜8は、移動ロボット100がフロア表面の上方の約10mmのところを乗って進むハウスクリーニング・ロボットとして構成される場合に特に出くわしやすいような一定の範囲の実世界の状況における正確な光学式走行距離データを、広い被写界深度を有する光学式走行距離カメラ440により捕捉することができる手法を概念的に示す。
図6は、光線620を使用する図4に示される光学式走行距離カメラ440の被写界深度601を概念的に示している。被写界深度601は、テレセントリック・レンズ442を有する光学式走行距離カメラ440の前方の凹形構造210によって形成される空洞内の第1の距離630から、凹形構造210の開口部410を超える第2の距離640まで広がる。したがって、この範囲内に位置する表面は概して、光学式走行距離カメラ440により焦点の合った状態で捕捉され、よって光学式走行距離データを確認するのに使用され得る。光学式走行距離システムから異なる距離に位置する異なる種類の表面の例が図7及び図8に概念的に示される。
図7は、堅木の床又はタイル・フロアなどの硬い表面を横断して移動する移動ロボット100を概念的に示す。さらに、移動ロボット100は、フロアに対して傾斜している。移動ロボット100は、物体の上を移動する、フロアが平坦ではない、及び/又は異なる高さのフロア表面の間の移行部分を横断する、を含む(これらに限定されない)多様な理由のうちのいずれかによって、傾斜する可能性がある。移動ロボット100が傾斜することで移動ロボットと追跡表面との間の距離が増大しても、光学式走行距離カメラ440の被写界深度601は、光学式走行距離センサ・システムを含む凹形構造210内の開口部410を通して可視である追跡表面の部分の焦点の合った画像及び/又は許容される程度で焦点から外れる画像を捕捉し続けるのに十分な大きさである。
図8は、カーペットを敷いた表面の上を移動する移動ロボット100を概念的に示す。カーペットの高さが移動ロボットの下側とホイールの底部との間の距離を超える場合に起こるように、カーペット繊維810が開口部410を通って凹形構造210の中まで侵入している。光学式走行距離カメラ440と追跡表面との間の距離が減少する場合でも、光学式走行距離カメラ440の被写界深度601は、カーペットの焦点の合った及び許容される程度でぼやけた画像の捕捉を可能とするのに十分な大きさである。したがって、この特定の光学式走行距離カメラ440の構成を使用することにより、光学式走行距離センサ・システム205は、移動ロボットの下の異なる距離に位置する可能性がある多様な異なる種類の表面について走行距離データを捕捉することができる。本発明の種々の実施例によるロボット制御装置によって構成される移動ロボットの概念的動作を以下でさらに論じる。

移動ロボットの行動制御システム
移動ロボット100は、任意選択で、周囲環境及び/又は移動ロボット100の状態に基づいて移動ロボットの行動を決定する行動制御アプリケーションを使用して構成され得る。任意選択の一構成では、移動ロボットは、特定のセンサ入力によって起動される1つ又は複数の行動と、どの行動を起動すべきかを決定するアービトレータ(arbitrator)とを含むことができる。別の任意選択の構成では、センサ入力は移動ロボット100を囲む環境の画像を含んでよく、行動が、1つ又は複数の捕捉された画像から確認される環境の特徴に反応して起動され得る。
行動制御アプリケーションによりVSLAMプロセス(これに限定されない)に基づいた環境内の航行が可能になる移動ロボット100の任意選択の構成が図9に概念的に示されている。移動ロボット100の行動制御アプリケーション910は、ホイール走行距離センサ920、光学式走行距離センサ・システム921、ジャイロスコープ922及び機械視覚システム923を含む、1つ又は複数のセンサから、その周囲環境に関する情報をから受信することができる。図示されてはいないが、1つ又は複数の他のセンサ(例えば、突起、近接、壁、停滞(stasis)、及び/又は、崖のセンサ)が移動ロボット100によって担持されてもよい。ホイール走行距離センサ920は、移動ロボット100の車輪の回転に基づいて走行距離データを捕捉する。この走行距離データの精度は、移動ロボット100がその上を横断する表面の特定の種類に基づいて変化する可能性がある。例えば、深いカーペットを敷いた表面では車輪がスリップし、走行距離データの精度が低下し得る。
上で詳細に論じたように、光学式走行距離センサ・システム921は、移動ロボット100が環境の表面を横断するときにカメラ440によって捕捉される画像を使用して走行距離データを集める。光学式走行距離カメラ440によって捕捉される走行距離データは、移動ロボット100による移動した並進運動の距離及び方向に関する情報を含み得る。しかし、いくつかの構成では、この走行距離データは、移動ロボット100の移動の方向に関する情報を含まなくてもよい。移動方向の情報は、この情報を提供することができるその他の様々なセンサの中のうち、ジャイロスコープ、コンパス、加速度計を含むいくつかの異なる種類のセンサから集められ得る。
ジャイロスコープ・センサ922は、環境内を通って移動するときの移動ロボット100の方向データを捕捉する。種々のセンサ920〜923から捕捉されるデータは、移動ロボット100の移動及び姿勢に関する種々の情報を確認するために組み合わされ得る。
移動ロボットの行動制御アプリケーション910は、センサ920〜923から受信される情報に反応してロボットのリソース925(例えば、車輪モジュール220)の利用を制御し、移動ロボット100に、周囲環境に基づき得る行動を作動させることができる。プログラムされた行動930は、移動ロボット100の多様な行動を作動するのに使用され得る種々のモジュールを含むことができる。とりわけ、プログラムされた行動930は、VSLAMモジュール940及び対応するVSLAMデータベース944、ナビゲーション・モジュール942、並びに、多数の追加の行動モジュール943を含むことができる。移動ロボットの行動制御アプリケーション910は、プログラムされた行動システム930及びコントロール・アービトレータ(control arbitrator)950を実装するためにプロセッサを構成する、非一時的な機械可読命令を含むメモリと通信状態にある1つ又は複数のプロセッサを使用して実装され得る。
示されている構成では、VSLAMモジュール940は、移動ロボット100が動作している環境のマッピングと、マッピングに関する移動ロボットの位置の特定を管理する。VSLAMモジュール940は、環境のマッピングに関するデータをVSLAMデータベース944内に記憶することができる。これらのデータは、環境のマップ、及び、例えば、物体を含む領域、横断可能なフロアを含む他の領域、既に横断した領域、まだ横断していない領域、特定の領域を表す情報の日付及び時間、並びに/或いは、特定の用途の要求に適し得る追加の情報を含む、マップの異なる領域の特徴を含むことができる。多くの例において、VSLAMデータベースは、階段、壁及び/又はドアの位置を含む、環境の境界に関する情報も含む。容易に認識され得るように、本発明の実施例によれば、特定の用途の要求に合わせて、移動ロボット100の動作環境をマッピングするために、多くの他の種類のデータがVSLAMモジュール940によって記憶されて利用され得る。
いくつかの実施例では、環境の特徴に基づいて移動ロボット100が環境の中を通して航行するように、ナビゲーション・モジュール942が作動する。ナビゲーション・モジュール942は、移動ロボット100に、方向を変え、特定の速度で駆動し、特定の形(例えば、フロアを磨くように小刻みに動く、側壁を清掃するように壁に押しつける、など)で駆動し、ベースの充填基地(home charging station)まで航行し、及び、種々の他の行動を行うように指示し得る。
他の行動943も、移動ロボットの行動を制御するために定められ得る。さらに、行動940〜943をさらに強力にするために、複数の行動の出力を別の行動モジュールの入力に一緒につなぎ合わせて、複雑な組み合わせの機能を提供することが可能である。行動940〜943は、移動ロボットの全体の認識範囲の管理可能な部分を実装するよう意図され、容易に認識され得るように、移動ロボットは、特定の用途の要求に適する多様な行動のいずれも組み込むことができる。
図9を再び参照すると、コントロール・アービトレータ950は、任意の他の行動を知る必要なく、プログラムされた行動930のモジュール940〜943が、それぞれ、移動ロボット100を制御するのを可能にするのを促進する。言い換えると、コントロール・アービトレータ950は、移動ロボット100のプログラムされた行動930とリソース925との間に単純な優先順位をつけられた制御機構を提供する。コントロール・アービトレータ950は、プログラムされた行動930の行動940〜943にアクセスし、ランタイムにおいて行動940〜943の間でのロボットのリソース925へのアクセスを制御することができる。コントロール・アービトレータ950は、そのモジュールの要求(例えば、モジュールの間の優先度ヒエラルキー)に応じてどのモジュール940〜943がロボットのリソース925を制御するかを決定する。行動940〜943は動的に開始及び停止することができ、互いに完全に独立して動作することができる。プログラムされた行動930はまた、互いを補助するように一緒に組み合わされ得る複雑な行動を可能にする。
ロボットのリソース925は、1つ又は複数のハードウェア制御装置を備える機能モジュール(例えば、アクチュエータ、駆動装置システム、及び、それらのグループ)のネットワークであってよい。コントロール・アービトレータ950のコマンドは、通常、所与の動作を実行するためのリソースに特有のものである。ロボットの制御装置回路によって構成されるときの、移動ロボットの概念的動作を以下で論じる。

ロボットの制御装置回路
ロボットの制御装置回路によって構成されるときの、移動ロボット100の行動は、通常、移動ロボットの周囲の動作環境の特徴、及び/又は移動ロボット100の状態に基づいて、多数の行動から選択される。多くの実施例では、環境の特徴が、機械視覚センサ・システムによって捕捉される画像から確認され得、環境内を通る移動が、光学式走行距離カメラ440によって捕捉される画像を使用して追跡され得る。捕捉される画像は、移動ロボット100を取り囲む環境をマッピングし、その環境内での移動ロボット100の位置を特定するために、1つ又は複数のVSLAMプロセスによって使用され得る。
機械視覚システム及び光学式走行距離センサ・システムを使用してVSLAMを実施するのに使用され得る移動ロボットの制御装置回路が図10に示されている。ロボットの制御装置回路1005は、メモリ1025及び入力/出力インターフェース1020と通信しているプロセッサ1010を含む。プロセッサ1010は、シングル・マイクロプロセッサ、マルチプル・マイクロプロセッサ、複数コア・プロセッサ、マイクロコントローラ、並びに/或いは、ソフトウェア及び/又はファームウェアによって構成され得る任意の他の汎用計算システムであってよい。メモリ1025は、視覚測定アプリケーション1030、VSLAMアプリケーション1035、目印のマップ1040、行動制御アプリケーション1045、及び、目印データベース1050を収容できる。
視覚測定アプリケーション1030は、入力画像の組の内の特徴を特定し、入力画像内で特定された特徴の収集物の、目印データベース1050からの特定された目印に関連付けられる特徴の収集物との類似性に基づいて、目印データベース1050から目印を特定する。視覚測定アプリケーションは、一連の捕捉された画像内の特徴の組を特定し、特徴の3D構造を決定するためにこの特徴の組の視差情報(disparity information)を分析し、この3Dの特徴を新しい目印として目印データベース1050内に記憶することにより、新しい目印を作ることもできる。
VSLAMアプリケーション1035は、前の位置の推定と、走行距離データと、視覚測定アプリケーションから受信される少なくとも1つの視覚測定とに基づいて、目印のマップ内での移動ロボット100の位置を推定する。上述したように、画像がVSLAMアプリケーション1035によって利用され得る。特定の実施例では、特徴が新たに得られた画像から抽出され、その特徴が前に検出された特徴と比較され、目印データベース1050内に保存される。VSLAMアプリケーション1035は、移動ロボット100の推定された位置と、走行距離データと、少なくとも1つの視覚測定とに基づいて、目印のマップを更新する。
目印のマップ1040は、移動ロボット100を取り囲む環境のマップ、及び、環境内の移動ロボット100の位置に対する目印の位置を含むことができる。目印のマップ1040は、目印データベース内で目印を表すデータへの参照(これに限定されない)を含む、マップ内での各目印を表す種々の情報を含むことができる。
行動制御アプリケーション1030は、移動ロボット100の周囲環境及び状態に基づいて、移動ロボット100の異なる行動の作動を制御する。いくつかの実施例では、画像が捕捉されてVSLAMアプリケーション1035によって分析されるのにあわせて、行動制御アプリケーション1045が、移動ロボット100を取り囲む環境の把握に基づいて移動ロボット100が如何に振る舞うべきかを決定する。行動制御アプリケーション1045は、移動ロボット100の環境及び/又は状態の特定の特徴に基づいて多数の異なる行動から選択することができる。行動には、限定しないが、ロボットによって作動され得る多くの基本的な行動のうち、壁追従行動(wall following behavior)、障害物回避行動、逃避行動が含まれる。
いくつかの実施例では、入力/出力インターフェースは、プロセッサ及び/又はメモリと通信する能力を、センサ(これに限定されない)などのデバイスに提供する。他の実施例では、入力/出力インターフェースは、有線及び/又は無線のデータ接続を介して遠隔の計算デバイスと通信する能力を移動ロボットに提供する。種々のロボットの制御装置構成が図10を参照して上で説明されてきたが、移動ロボット100は、ロボットの行動制御装置のアプリケーションをディスク又は何らかの他の形態の記憶装置上に位置させ、ランタイム時にメモリにロードするように、並びに/或いは、多様なソフトウェア、ハードウェア及び/又はファームウェアを使用してロボット行動制御装置アプリケーションを実装するように構成されるロボットの制御装置を含む、特定の用途の要求に適するものとして種々のロボットの制御装置のうちのいずれを使用しても構成され得る。

走行距離データの誤差低減
光学式走行距離センサ・システム205によって提供される走行距離データの信頼性は、横断している表面の種類、表面の照光、表面を横断する移動ロボットの速度、及び/又は、光学式走行距離カメラ440のフレーム率を含む(これに限定されない)、種々の要因に基づいて変わり得る。移動ロボット100は、1つ又は複数のホイール走行距離センサを含む(これに限定されない)、1つ又は複数の異なる種類のセンサを使用して追加の走行距離データを得ることができる。任意選択の一構成では、移動ロボット100は、光学式走行距離データの信頼性を確認し、及び/又は他のプロセスにより高い信頼性の走行距離データを提供するために、光学式走行距離センサ・システム205によって捕捉される走行距離データを、ホイール走行距離センサによって捕捉される走行距離データに対して比較することができる。
特定の実施例では、移動ロボットは、走行距離データを捕捉するのに光学式走行距離センサ・システム205に主に依存することがある。しかしながら、光学式走行距離センサ・システム205が満足できるレベルの信頼性を有する走行距離データを捕捉することができない場合、移動ロボット100は走行距離データを集めるためにホイール走行距離センサ・システムも使用することができる。例えば、移動ロボット100が、高い信頼性のSQUAL値を達成するにはあまりにも少ない追跡可能な特徴しか有さないようなセラミック・タイル・フロアを横断して移動する場合、光学式走行距離データは、例えばホイール走行距離センサを含む他の種類のセンサによって捕捉されたデータと同じようには正確ではないかもしれない。異なる種類のセンサによって捕捉される情報を使用して走行距離データを得るために移動ロボット100により任意選択で利用され得るプロセスが図11及び12に示されている。
図11の実装形態では、プロセス1100は、1つ又は複数の異なるセンサからセンサ・データを受信する(1102)。これらのセンサは、光学式走行距離センサ・システム、及び/又は、ホイール走行距離センサ、機械視覚センサを(限定はしないが)含み得る。移動ロボット100は、光学式走行距離センサ・システム205によって捕捉される光学式走行距離データが品質閾値を満たすか否かを決定する(1104)。いくつかの実施例では、光学式走行距離センサ・システム205は、走行距離データとともに、データの信頼性の推定を与える測定指標を提供する。この測定指標は、移動ロボットがその上を横断している表面の品質、例えば、センサが追跡する特徴を有しているか否かに基づき得る。
光学式走行距離データが品質閾値を満たす場合、移動ロボット100は、移動した距離を推定するのに光学式走行距離データを使用することができる(1106)。光学式走行距離データが品質閾値を満たさない場合、移動ロボット100は、移動した距離を推定するのに光学式走行距離データ及び1つ又は複数の追加のセンサからのデータを使用することができる(1108)。追加のセンサは、移動ロボット100の車輪の回転に基づいて走行距離データを環境にわたって捕捉するホイール走行距離センサであってよい。一構成では、ホイール走行距離データは光学式走行距離データを検証するのに使用され、ホイール走行距離データによって確認されれば、光学式走行距離データが利用される。ホイール走行距離データが光学式走行距離データを認めない場合、特定の用途の要求に応じて、プロセスはすべての走行距離データを放棄、及び/又はホイール走行距離データに依存してよい。
示されているプロセスでは、移動ロボット100は、環境内の移動ロボット100の移動の方向を推定するのにジャイロスコープ及び/又は追加のセンサを使用し(1110)、移動の並進運動及び方向の推定される大きさに基づいて移動ロボットの姿勢を更新する(1112)。
動作環境内でのロボット100の位置を決定するために2つ以上のセンサ読取値を融合するためのプロセス1200を示す図12の実装形態では、移動ロボット100は、ホイール走行距離及びIMU、並びに/或いは、光学式走行距離及びIMUから高頻度のセンサ読取値を受信する(S1205)。実装形態においては、ロボット100は、3軸加速度計を3軸ジャイロメータ(以下、「ジャイロ」と称す)と組み合わせた6軸IMUなどのIMUを備える。高い頻度でサンプリングされるホイール走行距離及びマウス走行距離データをIMUデータと比較することにより(S1210、S1215)、ロボット100は、ホイール走行距離計及びマウス・センサが移動を正確に報告し、動作環境内でのロボットのロケーションを決定することにおいて考慮され得るか否か、を決定する。例えば、移動を正確に検出するには光学式センサが追跡する特徴があまりにも少ない滑らかな表面上をロボット100が移動している場合、センサは低いSQUAL値を生成することになる。プロセス1200は、SQUAL値が閾値未満であるか否かを決定し(S1220)、そうである場合、ロボット100は光学式センサのデータを無視し(S1225)、その環境内でのロボット100の位置を特定するために他のセンサ読取値のうちの1つ又は複数を自動的に選択することになる。実装形態においては、SQUAL値が低い場合、ロボット100は、FODが光学式走行距離カメラ400のレンズを妨害している可能性があるこの音響及び視覚信号を使用者に対して発し、凹部210を掃除するよう使用者に促す。
同様に、IMUセンサ・データ及びホイール走行距離データの両方が移動を示すのに失敗した場合、又は、センサが矛盾し、ホイール走行距離計が移動を示している一方でIMUデータはロボット100が移動していないことを示している場合(例えば、車輪が摩擦の小さい表面上でスリップしている場合、又は、ロボットが乗り上げている(beached or high centered)場合)、ロボット100は、位置の特定の決定を行う際にホイール走行距離データを無視する(S1230)。IMU及びホイール走行距離計の両方がロボット100が移動していることを示している場合、ロボット100は、IMUが初期のロボットの進行方向からのズレ(drift)を示しているか否かを検査する(S1235)。
IMUがズレを示している場合、ホイール走行距離データは、移動した距離に基づいて位置を計算するのには信頼できないものとなろう。ロボット100はホイール走行距離データ及び光学式センサのデータを無視し(S1240)、よりゆっくりサンプリングされるVSLAMデータを使用して環境内でのロボットの姿勢の全体における決定によって、位置の特定を調整する。多くの実装形態では、ロボット100は、VSLAMのための画像を収集するように構成され、フロア表面から3〜8フィートの高さの範囲内にある静止した目印の特定の領域に向けられた視界を有するカメラ120であるイメージング・センサを有する。高頻度の走行距離データを全体的なセンサ読取値で補足することにより、ロボット100は、全体座標系及び/又は環境の永続的なマップの中での正確な姿勢を決定し(S1245)、一旦、姿勢が決定されると、位置の特定において矛盾が存在する場合には高頻度の局所的な位置データを無視し、調整し、及び/又は、再設定する(S1250)。次いで、プロセス1200は、ロボットのミッション(例えば、清掃走行(cleaning run))が完了しているか否かを検査し(S1225)、ホイール走行距離センサのデータ、光学式走行距離データ及びIMUデータの監視に戻る。
ホイール走行距離計が移動を正確に示し、光学式センサがフロア表面上の十分な数の追跡する特徴を追跡しつつ移動を示していると決定された後にIMUがズレのないことを示しているならば(S1235)、ロボット100上で実行されているプロセス1200は、ホイール走行距離データ及び光学式センサのデータの両方を使用して、ロボット100の位置を特定しているであろう(S1260)。いくつかの実装形態では、プロセス1200は、IMUからの入力にもかかわらずロボットが著しくはズレていないことを保証するための断続的な全体における位置特定の検査を含む。全体における位置特定の検査は、最初に、閾値継続時間が経過したか否かを決定する(S1265)。もしそうでなければ、プロセスはロボットのミッション(例えば、清掃走行)が完了しているか否かを検査し(S1255)、ホイール走行距離センサのデータ、光学式走行距離データ及びIMUデータの監視に戻る。閾値継続時間が経過している場合、上述したように、プロセス1200はVSLAMセンサを使用してロボット100の姿勢を決定する(S1270)。プロセスが、走行距離に基づく位置の特定とVSLAMの姿勢とが合っていると決定すれば、プロセス1200はロボットのミッション(例えば、清掃走行)が完了しているか否かを検査し(S1255)、ホイール走行距離センサのデータ、光学式走行距離データ及びIMUデータの監視に戻る。プロセス1200が、走行距離に基づく位置の特定とVSLAMの姿勢とが合っていないと決定すれば、ロボット100は高頻度の局所的な位置データを無視し、調整し、及び/又は、再設定する(S1250)。
上記は本発明の多くの具体的な任意選択の態様の説明を含んでいるが、これらは本発明の範囲を限定するものとしてではなく、むしろ、それらの多様な構成の例として解釈されるべきである。したがって、本発明の範囲は示される例によって決定されるべきではなく、添付の特許請求の範囲及びその均等物によって決定されるべきである。

Claims (13)

  1. 動作環境の中を航行するように構成された移動ロボット(100)であって、
    本体(108)を備え、前記本体(108)は、
    移動の方向に前記移動ロボット(100)を並進運動させるように構成された駆動装置と、
    少なくとも1つのプロセッサ(1010)と、
    ナビゲーション・アプリケーションを含むメモリ(1025)と、
    前記本体(108)の下側の凹形構造(210)内に位置づけられ、光学式走行距離データを出力するように構成された光学式走行距離センサ・システム(205)であって、前記本体(108)の下方の追跡表面の画像を捕捉するように構成され、且つ、前記移動ロボット(100)の底部表面から−5から15mmの間の距離を含む距離において物体に合焦する被写界深度を有するテレセントリック・レンズ(442)を含む、床面から40から60mmの間の高さに位置づけられた光学式走行距離カメラ(440)を備える、光学式走行距離センサ・システム(205)と、
    を含む、
    移動ロボット(100)。
  2. ジャイロスコープ測定データを出力するように構成されたジャイロスコープ(922)をさらに含む、請求項1に記載の移動ロボット(100)。
  3. 前記ナビゲーション・アプリケーションは、前記プロセッサ(1010)に、
    前記駆動装置の機構を作動して前記光学式走行距離センサ・システム(205)から光学式走行距離データを、前記ジャイロスコープ(922)からジャイロスコープ測定データを捕捉し、
    前記捕捉された光学式走行距離データを使用して移動した距離を推定し、
    前記ジャイロスコープ測定データを使用して移動した方向を推定し、
    前記推定された移動した距離及び移動した方向を使用して姿勢の推定を更新する
    ように指示する、請求項2に記載の移動ロボット(100)。
  4. 前記駆動装置の機構は複数の車輪(220)を備え、前記移動ロボット(100)は、前記複数の車輪(220)の各々の回転に基づいてホイール走行距離データを出力するホイール走行距離センサ・システムをさらに備え、
    前記ナビゲーション・アプリケーションは、前記プロセッサ(1010)に、前記ホイール走行距離センサ・システムから捕捉されたホイール走行距離データを使用して移動した距離を推定するように指示する、請求項3に記載の移動ロボット(100)。
  5. 前記ナビゲーション・アプリケーションは、前記プロセッサ(1010)に、前記姿勢の推定を、前記移動ロボット(100)の頂部表面の下に設置されたカメラ(120)によって検出された、撮像された特徴を使用して計算されたVSLAMの姿勢の決定に対して比較するように指示する、請求項3に記載の移動ロボット(100)。
  6. 前記ナビゲーション・アプリケーションは、前記プロセッサ(1010)に、前記VSLAMの姿勢の決定が、前記移動ロボット(100)が進行方向からズレていることを示す場合、前記姿勢の推定を再設定するように指示する、請求項5に記載の移動ロボット(100)。
  7. 前記追跡表面を照光するために、前記テレセントリック・レンズ(442)の周りに配置され、複数のLED(510)を備える複数の照明要素をさらに備える、請求項1に記
    載の移動ロボット(100)。
  8. 前記複数のLED(510)の各々は、前記光学式走行距離カメラ(440)の光学軸に対して鋭角をなすように位置づけられている、請求項7に記載の移動ロボット(100)。
  9. 前記複数のLED(510)は、前記光学式走行距離カメラ(440)の周りの異なる位置に位置づけられた少なくとも4つのLEDを備える、請求項7に記載の移動ロボット(100)。
  10. LED(510)の対は、前記光学式走行距離カメラ(440)に対して反対側に位置づけられている、請求項9に記載の移動ロボット(100)。
  11. 前記LED(510)は、前記光学式走行距離カメラ(440)の光学軸からずらされた螺旋パターンに位置づけられている、請求項9に記載の移動ロボット(100)。
  12. 前記光学式走行距離センサ・システム(205)は、光学式走行距離データの信頼性を示す品質尺度も出力し、
    前記ナビゲーション・アプリケーションは、品質尺度が閾値を満たす場合に、前記プロセッサ(1010)に、前記捕捉された光学式走行距離データを使用して移動した距離を推定するように指示する、
    請求項4に記載の移動ロボット(100)。
  13. 前記品質尺度は、画像内で検出される有効な特徴の数に基づく、請求項12に記載の移動ロボット(100)。
JP2017518191A 2014-11-26 2015-11-17 移動ロボットにおける光学式走行距離センサの使用のためのシステム及び方法 Active JP6772129B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201462085002P 2014-11-26 2014-11-26
US62/085,002 2014-11-26
US14/856,501 US9744670B2 (en) 2014-11-26 2015-09-16 Systems and methods for use of optical odometry sensors in a mobile robot
US14/856,501 2015-09-16
PCT/US2015/061146 WO2016085716A1 (en) 2014-11-26 2015-11-17 Systems and methods of use of optical odometry sensors in a mobile robot

Publications (2)

Publication Number Publication Date
JP2018500624A JP2018500624A (ja) 2018-01-11
JP6772129B2 true JP6772129B2 (ja) 2020-10-21

Family

ID=56009312

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017518191A Active JP6772129B2 (ja) 2014-11-26 2015-11-17 移動ロボットにおける光学式走行距離センサの使用のためのシステム及び方法

Country Status (5)

Country Link
US (1) US9744670B2 (ja)
EP (1) EP3224003B1 (ja)
JP (1) JP6772129B2 (ja)
CN (1) CN106489104B (ja)
WO (1) WO2016085716A1 (ja)

Families Citing this family (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10691097B2 (en) 2014-05-09 2020-06-23 The Boeing Company Path repeatable machining for full sized determinant assembly
US9744670B2 (en) 2014-11-26 2017-08-29 Irobot Corporation Systems and methods for use of optical odometry sensors in a mobile robot
US10877484B2 (en) 2014-12-10 2020-12-29 Aktiebolaget Electrolux Using laser sensor for floor type detection
EP3282912B1 (en) 2015-04-17 2020-06-10 Aktiebolaget Electrolux Robotic cleaning device and a method of controlling the robotic cleaning device
US10121255B2 (en) 2015-11-03 2018-11-06 Pixart Imaging Inc. Optical sensor for odometry tracking to determine trajectory of a wheel
US11169533B2 (en) * 2016-03-15 2021-11-09 Aktiebolaget Electrolux Robotic cleaning device and a method at the robotic cleaning device of performing cliff detection
CN106352870B (zh) * 2016-08-26 2019-06-28 深圳微服机器人科技有限公司 一种目标的定位方法及装置
US10571925B1 (en) 2016-08-29 2020-02-25 Trifo, Inc. Autonomous platform guidance systems with auxiliary sensors and task planning
US11314262B2 (en) 2016-08-29 2022-04-26 Trifo, Inc. Autonomous platform guidance systems with task planning and obstacle avoidance
US10395117B1 (en) 2016-08-29 2019-08-27 Trifo, Inc. Visual-inertial positional awareness for autonomous and non-autonomous tracking
US10043076B1 (en) 2016-08-29 2018-08-07 PerceptIn, Inc. Visual-inertial positional awareness for autonomous and non-autonomous tracking
US10571926B1 (en) 2016-08-29 2020-02-25 Trifo, Inc. Autonomous platform guidance systems with auxiliary sensors and obstacle avoidance
US10162362B2 (en) * 2016-08-29 2018-12-25 PerceptIn, Inc. Fault tolerance to provide robust tracking for autonomous positional awareness
JP6380490B2 (ja) * 2016-09-12 2018-08-29 カシオ計算機株式会社 印刷装置、印刷方法及びプログラム
US10722775B2 (en) * 2016-09-27 2020-07-28 Adidas Ag Robotic training systems and methods
US10732127B2 (en) * 2016-10-26 2020-08-04 Pixart Imaging Inc. Dirtiness level determining system and surface cleaning machine
US10642277B2 (en) * 2017-03-22 2020-05-05 Fetch Robotics, Inc. Cleaning station for mobile robots
KR102426728B1 (ko) * 2017-04-10 2022-07-29 삼성전자주식회사 포커스 제어 방법 및 이를 지원하는 전자 장치
CN110621208A (zh) 2017-06-02 2019-12-27 伊莱克斯公司 检测机器人清洁设备前方的表面的高度差的方法
EP3653347A4 (en) * 2017-07-11 2020-08-12 Panasonic Intellectual Property Management Co., Ltd. ROBOT CONTROL DEVICE
CN107329476A (zh) * 2017-08-02 2017-11-07 珊口(上海)智能科技有限公司 一种房间拓扑地图构建方法、***、装置及扫地机器人
CN107894230A (zh) * 2017-12-31 2018-04-10 天津阿备默机器人科技有限公司 一种agv搬运车用导航传感器
CN108245099A (zh) * 2018-01-15 2018-07-06 深圳市沃特沃德股份有限公司 机器人移动方法和装置
JP2019174177A (ja) * 2018-03-27 2019-10-10 トヨタ自動車株式会社 移動量検出装置
CN110442120B (zh) * 2018-05-02 2022-08-05 深圳市优必选科技有限公司 控制机器人在不同场景下移动的方法、机器人及终端设备
KR102047303B1 (ko) * 2018-06-01 2019-11-21 엘지전자 주식회사 저조도 영상 내 소실점에 기반하여 방향을 추정하는 로봇 및 방법
GB2574417B (en) * 2018-06-05 2021-03-03 Dyson Technology Ltd A vision system for a mobile robot
CN112236116B (zh) 2018-07-13 2023-07-07 Whill株式会社 电动移动车
TWI688749B (zh) * 2018-08-29 2020-03-21 廣達電腦股份有限公司 可進行人體追蹤之追蹤測距系統及其方法
CN109394095B (zh) * 2018-10-23 2020-09-15 珠海市一微半导体有限公司 一种机器人运动地毯偏移的控制方法、芯片及清洁机器人
CN109506652B (zh) * 2018-10-23 2022-11-15 珠海一微半导体股份有限公司 一种基于地毯偏移的光流数据融合方法及清洁机器人
US11080495B2 (en) * 2018-10-25 2021-08-03 Unified Information Devices, LLC Animal motion and temperature monitoring
WO2020102458A1 (en) * 2018-11-13 2020-05-22 Schwartz Merlie Autonomous power trowel
US11774983B1 (en) 2019-01-02 2023-10-03 Trifo, Inc. Autonomous platform guidance systems with unknown environment mapping
CN110233956B (zh) * 2019-05-29 2020-12-04 尚科宁家(中国)科技有限公司 一种传感器模块及移动清洁机器人
US11662739B2 (en) * 2019-06-03 2023-05-30 Zebra Technologies Corporation Method, system and apparatus for adaptive ceiling-based localization
JP7243650B2 (ja) * 2020-02-12 2023-03-22 トヨタ自動車株式会社 移動量検出システム及び移動量検出方法
US11592299B2 (en) * 2020-03-19 2023-02-28 Mobile Industrial Robots A/S Using static scores to control vehicle operations
US11685049B2 (en) 2020-04-22 2023-06-27 Boston Dynamics, Inc. Robot localization using variance sampling
USD1017154S1 (en) * 2020-09-17 2024-03-05 Irobot Corporation Mobile cleaning robot
CN112130569B (zh) * 2020-09-27 2024-03-26 上海木木聚枞机器人科技有限公司 一种超声波量程设置方法及***
CN112179353B (zh) * 2020-09-30 2023-07-18 深圳银星智能集团股份有限公司 自移动机器人的定位方法、装置、机器人及可读存储介质
US11737627B2 (en) * 2020-10-03 2023-08-29 Viabot Inc. Methods for setting and programming zoning for use by autonomous modular robots
CN112356023B (zh) * 2020-10-28 2021-12-07 深圳市云视机器人有限公司 运动状态识别方法、存储介质、识别装置及移动机器人
KR102299127B1 (ko) * 2020-12-28 2021-09-06 영남대학교 산학협력단 배관 내 위치 측정 장치
CN113341948A (zh) * 2021-05-08 2021-09-03 南京墨问科技有限公司 一种可自主导航定位的六边形全向式移动机器人
WO2024008279A1 (en) * 2022-07-05 2024-01-11 Aktiebolaget Electrolux Robotic cleaning device using optical sensor for navigation

Family Cites Families (69)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3346513B2 (ja) 1994-07-01 2002-11-18 ミノルタ株式会社 マップ記憶方法及びそのマップを使用する経路作成方法
US5642106A (en) * 1994-12-27 1997-06-24 Siemens Corporate Research, Inc. Visual incremental turn detector
WO1998004388A1 (fr) 1996-07-25 1998-02-05 Honda Giken Kogyo Kabushiki Kaisha Dispositif de reproduction de la demarche pour robot articule muni de jambes
ES2172936T3 (es) 1997-11-27 2002-10-01 Solar & Robotics Mejoras en los robots moviles y en su sistema de mando.
US6532404B2 (en) 1997-11-27 2003-03-11 Colens Andre Mobile robots and their control system
WO2000078410A1 (fr) 1999-06-17 2000-12-28 Solar & Robotics S.A. Dispositif automatique de ramassage d'objets
US6594844B2 (en) 2000-01-24 2003-07-22 Irobot Corporation Robot obstacle detection system
US7155308B2 (en) 2000-01-24 2006-12-26 Irobot Corporation Robot obstacle detection system
JP2002085305A (ja) 2000-09-12 2002-03-26 Toshiba Tec Corp ロボットクリーナ及びロボットクリーナシステム
US6496754B2 (en) 2000-11-17 2002-12-17 Samsung Kwangju Electronics Co., Ltd. Mobile robot and course adjusting method thereof
US7571511B2 (en) 2002-01-03 2009-08-11 Irobot Corporation Autonomous floor-cleaning robot
US6690134B1 (en) 2001-01-24 2004-02-10 Irobot Corporation Method and system for robot localization and confinement
US6883201B2 (en) 2002-01-03 2005-04-26 Irobot Corporation Autonomous floor-cleaning robot
WO2002077108A2 (en) 2001-03-21 2002-10-03 Macdermid Colorspan, Inc. Co-operating mechanical subassemblies for a scanning carriage, digital wide-format color inkjet print engine
KR100437372B1 (ko) 2001-04-18 2004-06-25 삼성광주전자 주식회사 이동통신망을 이용한 로봇 청소 시스템
RU2220643C2 (ru) 2001-04-18 2004-01-10 Самсунг Гванджу Электроникс Ко., Лтд. Автоматическое чистящее устройство, автоматическая чистящая система и способ управления этой системой (варианты)
AU767561B2 (en) 2001-04-18 2003-11-13 Samsung Kwangju Electronics Co., Ltd. Robot cleaner, system employing the same and method for reconnecting to external recharging device
US20040187457A1 (en) 2001-05-28 2004-09-30 Andre Colens Robotic lawnmower
US7663333B2 (en) 2001-06-12 2010-02-16 Irobot Corporation Method and system for multi-mode coverage for an autonomous robot
ES2660836T3 (es) 2001-06-12 2018-03-26 Irobot Corporation Método y sistema de cobertura multicódigo para un robot autónomo
KR100483548B1 (ko) 2002-07-26 2005-04-15 삼성광주전자 주식회사 로봇 청소기와 그 시스템 및 제어 방법
JP4157731B2 (ja) 2002-07-01 2008-10-01 日立アプライアンス株式会社 ロボット掃除機及びロボット掃除機制御プログラム
KR100500842B1 (ko) * 2002-10-31 2005-07-12 삼성광주전자 주식회사 로봇청소기와, 그 시스템 및 제어방법
US7774158B2 (en) 2002-12-17 2010-08-10 Evolution Robotics, Inc. Systems and methods for landmark generation for visual simultaneous localization and mapping
DE10261788B3 (de) 2002-12-23 2004-01-22 Alfred Kärcher Gmbh & Co. Kg Mobiles Bodenbearbeitungsgerät
JP2004237075A (ja) 2003-02-06 2004-08-26 Samsung Kwangju Electronics Co Ltd 外部充電装置を有するロボット掃除機システム及びロボット掃除機の外部充電装置の接続方法。
US7333113B2 (en) 2003-03-13 2008-02-19 Sony Corporation Mobile motion capture cameras
KR20040086940A (ko) * 2003-04-03 2004-10-13 엘지전자 주식회사 이미지센서를 채용한 이동로봇 및 그의 이동거리 측정방법
US20040221790A1 (en) * 2003-05-02 2004-11-11 Sinclair Kenneth H. Method and apparatus for optical odometry
KR100478681B1 (ko) 2003-07-29 2005-03-25 삼성광주전자 주식회사 바닥살균기능을 구비한 로봇청소기
US9229540B2 (en) 2004-01-30 2016-01-05 Electronic Scripting Products, Inc. Deriving input from six degrees of freedom interfaces
JP3908226B2 (ja) 2004-02-04 2007-04-25 日本電産株式会社 スキャニング型レンジセンサ
US7689321B2 (en) * 2004-02-13 2010-03-30 Evolution Robotics, Inc. Robust sensor fusion for mapping and localization in a simultaneous localization and mapping (SLAM) system
JP2005230044A (ja) 2004-02-17 2005-09-02 Funai Electric Co Ltd 自律走行ロボットクリーナー
KR100571834B1 (ko) 2004-02-27 2006-04-17 삼성전자주식회사 청소 로봇의 바닥 먼지 검출 방법 및 장치
JP4163150B2 (ja) 2004-06-10 2008-10-08 日立アプライアンス株式会社 自走式掃除機
JP2006061220A (ja) 2004-08-24 2006-03-09 Funai Electric Co Ltd 自走式掃除機
KR100677252B1 (ko) 2004-09-23 2007-02-02 엘지전자 주식회사 로봇 청소기를 이용한 원격 감시시스템 및 방법
US7389156B2 (en) 2005-02-18 2008-06-17 Irobot Corporation Autonomous surface cleaning robot for wet and dry cleaning
EP1850725B1 (en) 2005-02-18 2010-05-19 iRobot Corporation Autonomous surface cleaning robot for wet and dry cleaning
GB0515031D0 (en) 2005-07-22 2005-08-31 Univ Newcastle Apparatus for determining the position of a moveable apparatus on a surface
CN101297267B (zh) * 2005-09-02 2012-01-11 Neato机器人技术公司 多功能机器人设备
CN1937766A (zh) * 2005-09-20 2007-03-28 富士能株式会社 监视摄像机装置及监视摄像机***
JP2007209392A (ja) 2006-02-07 2007-08-23 Funai Electric Co Ltd 自走式掃除機
CN100478142C (zh) * 2006-04-05 2009-04-15 中国科学院自动化研究所 一种移动机器人的位姿传感***及其方法
US8768558B2 (en) 2007-01-05 2014-07-01 Agjunction Llc Optical tracking vehicle control system and method
CN101689304A (zh) * 2007-07-10 2010-03-31 皇家飞利浦电子股份有限公司 对象动作捕捉***和方法
US9812096B2 (en) 2008-01-23 2017-11-07 Spy Eye, Llc Eye mounted displays and systems using eye mounted displays
US8961695B2 (en) * 2008-04-24 2015-02-24 Irobot Corporation Mobile robot for cleaning
EP2303085B1 (en) * 2008-04-24 2017-07-26 iRobot Corporation Application of localization, positioning & navigation systems for robotic enabled mobile products
KR101553950B1 (ko) 2009-03-02 2015-09-17 엘지전자 주식회사 로봇 청소기 및 그의 위치 검출 방법
KR100997485B1 (ko) 2009-04-10 2010-12-01 수자원기술 주식회사 비접촉식 주행거리 감지장치
US8416191B2 (en) * 2009-09-30 2013-04-09 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Large depth of field navigation input devices and methods
CN102048499B (zh) * 2009-10-26 2015-04-01 三星电子株式会社 移动机器人***以及控制移动机器人***的方法
CN104970741B (zh) 2009-11-06 2017-08-29 艾罗伯特公司 用于通过自主型机器人完全覆盖表面的方法和***
GB2494081B (en) 2010-05-20 2015-11-11 Irobot Corp Mobile human interface robot
JP5610870B2 (ja) * 2010-06-21 2014-10-22 三菱重工業株式会社 無人走行車両の誘導装置及び無人走行車両の誘導方法
WO2011161846A1 (ja) 2010-06-23 2011-12-29 パナソニック株式会社 ドーム型カメラ
US9286810B2 (en) 2010-09-24 2016-03-15 Irobot Corporation Systems and methods for VSLAM optimization
US9686532B2 (en) 2011-04-15 2017-06-20 Faro Technologies, Inc. System and method of acquiring three-dimensional coordinates using multiple coordinate measurement devices
KR101860338B1 (ko) * 2011-05-06 2018-05-23 엘지전자 주식회사 이동 로봇
US8800101B2 (en) * 2011-07-25 2014-08-12 Lg Electronics Inc. Robot cleaner and self testing method of the same
US9928459B2 (en) * 2011-07-25 2018-03-27 Lg Electronics Inc. Robotic cleaner and self testing method of the same
KR101324166B1 (ko) 2011-07-25 2013-11-08 엘지전자 주식회사 로봇 청소기 및 이의 자가 진단 방법
CN104246826B (zh) 2012-01-03 2017-12-15 阿森蒂亚影像有限公司 编码定位***、方法和装置
US8958911B2 (en) * 2012-02-29 2015-02-17 Irobot Corporation Mobile robot
US9020641B2 (en) * 2012-06-07 2015-04-28 Samsung Electronics Co., Ltd. Obstacle sensing module and cleaning robot including the same
CN102980555B (zh) * 2012-12-06 2015-04-08 紫光股份有限公司 一种光学成像式轮式移动机器人方位的检测方法及其装置
US9744670B2 (en) 2014-11-26 2017-08-29 Irobot Corporation Systems and methods for use of optical odometry sensors in a mobile robot

Also Published As

Publication number Publication date
CN106489104A (zh) 2017-03-08
US20160144511A1 (en) 2016-05-26
JP2018500624A (ja) 2018-01-11
WO2016085716A1 (en) 2016-06-02
US9744670B2 (en) 2017-08-29
EP3224003A1 (en) 2017-10-04
EP3224003A4 (en) 2018-07-04
CN106489104B (zh) 2022-02-22
EP3224003B1 (en) 2020-04-08

Similar Documents

Publication Publication Date Title
JP6772129B2 (ja) 移動ロボットにおける光学式走行距離センサの使用のためのシステム及び方法
EP2888603B1 (en) Robot positioning system
US11960304B2 (en) Localization and mapping using physical features
JP7184435B2 (ja) 移動ロボットの移動の制限
US10542859B2 (en) Cleaning robot and controlling method thereof
EP2677386B1 (en) Robot cleaner and obstacle detection control method of the same
US9609991B2 (en) Methods and systems for movement of an automatic cleaning device using video signal
US8423225B2 (en) Methods and systems for movement of robotic device using video signal
CN112004645A (zh) 智能清洁机器人
KR20210015126A (ko) 이동 로봇
EP2325713B1 (en) Methods and systems for movement of robotic device using video signal
CN114829083B (zh) 移动机器人

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181019

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190911

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190925

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20191225

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20200207

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20200210

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200427

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200727

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200812

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200831

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200930

R150 Certificate of patent or registration of utility model

Ref document number: 6772129

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250