JP7396691B2 - 様々な環境照明条件において動作可能なモバイル機器のためのビジュアルナビゲーション - Google Patents

様々な環境照明条件において動作可能なモバイル機器のためのビジュアルナビゲーション Download PDF

Info

Publication number
JP7396691B2
JP7396691B2 JP2021501050A JP2021501050A JP7396691B2 JP 7396691 B2 JP7396691 B2 JP 7396691B2 JP 2021501050 A JP2021501050 A JP 2021501050A JP 2021501050 A JP2021501050 A JP 2021501050A JP 7396691 B2 JP7396691 B2 JP 7396691B2
Authority
JP
Japan
Prior art keywords
camera
infrared
exposure time
visual
illumination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021501050A
Other languages
English (en)
Other versions
JP2021532462A (ja
JPWO2020014706A5 (ja
Inventor
マイケル ドーリー
ニコライ ロマノフ
ジェイムス フィリップ ケース
Original Assignee
ラブラドール システムズ インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ラブラドール システムズ インコーポレイテッド filed Critical ラブラドール システムズ インコーポレイテッド
Publication of JP2021532462A publication Critical patent/JP2021532462A/ja
Publication of JPWO2020014706A5 publication Critical patent/JPWO2020014706A5/ja
Priority to JP2023198151A priority Critical patent/JP2024042693A/ja
Application granted granted Critical
Publication of JP7396691B2 publication Critical patent/JP7396691B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • G01C21/206Instruments for performing navigational calculations specially adapted for indoor navigation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S1/00Beacons or beacon systems transmitting signals having a characteristic or characteristics capable of being detected by non-directional receivers and defining directions, positions, or position lines fixed relatively to the beacon transmitters; Receivers co-operating therewith
    • G01S1/70Beacons or beacon systems transmitting signals having a characteristic or characteristics capable of being detected by non-directional receivers and defining directions, positions, or position lines fixed relatively to the beacon transmitters; Receivers co-operating therewith using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S1/00Beacons or beacon systems transmitting signals having a characteristic or characteristics capable of being detected by non-directional receivers and defining directions, positions, or position lines fixed relatively to the beacon transmitters; Receivers co-operating therewith
    • G01S1/70Beacons or beacon systems transmitting signals having a characteristic or characteristics capable of being detected by non-directional receivers and defining directions, positions, or position lines fixed relatively to the beacon transmitters; Receivers co-operating therewith using electromagnetic waves other than radio waves
    • G01S1/703Details
    • G01S1/7032Transmitters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0033Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by having the operator tracking the vehicle either by direct line of sight or via one or more cameras located remotely from the vehicle
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0242Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using non-visible light signals, e.g. IR or UV signals
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/20Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from infrared radiation only
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/72Combination of two or more compensation controls
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Automation & Control Theory (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Exposure Control For Cameras (AREA)

Description

発明の詳細な説明
[関連出願の相互参照]
本出願は、2018年7月13日に出願された米国仮特許出願第62/697,520号に基づく優先権を主張し、上記出願の全体の内容は、参照することにより本明細書に援用される。
[技術分野]
本発明は、概して、モバイル機器(自律走行車、移動式配送ロボット、及び、ウェアラブル機器、娯楽機器、移動支援機器などのユーザに位置付けられる機器を含むが、それらに限定されるものではない)のナビゲーションに関し、より詳細には、動的非構造化環境におけるこのような機器のためのナビゲーションに関する。
[背景]
多種多様な無人搬送車(AGV)が、数十年の間、製造、及び倉庫の現場で物品を自動搬送するために用いられてきた。これらの環境は、一般的に、(例えば、機械可読な目標の提供によって)ロボットと共に用いられるように構築され、通常は、新たなまたは予期せぬ障害物に関してほとんど動的な変化を伴わず、一般的に一貫した照明条件が与えられる。これらAGVのタイプは、時間と共に、病院、研究所、及び、オフィス環境などの他の現場で、物品を運搬し、配送するための使用に適合されてきた。
ロボット工学において、地図作成及びナビゲーションは、多くの実世界への適用を可能にする最も重要な技術である。地図作成及びナビゲーションにおける開発は、学会及び産業界による研究の盛んな分野である。最も一般的な技術のうちの2つは、レーザによる自己位置推定と地図作成の同時実行(レーザSLAM)、及び、ビジュアルSLAMである。高性能の光による検出と測距(LiDAR)システムの高いコスト、及び、LiDARセンサの大きさ、視野、及び、所要電力のため、レーザSLAMは、産業及び商業的用途に主に用いられる。ビジュアルSLAMは、カメラを、位置推定のためのより柔軟な代替のセンサとして活用する、レーザSLAMの代替として開発され、その一方で、LiDARシステムによって作成され、ナビゲーションに利用される限定された2次元(2D)地図よりも、より複雑な実世界の環境の地図を作成する可能性も約束する。安価なプロセッサ及びCMOS撮像素子の進歩によって支えられ、ビジュアルSLAMは、構成要素の価格、大きさ、携帯性、及び、消費電力が商業的な実現可能性に対する主要な要因である家電用途において、事実上の選択肢となってきた。
ここ数年、ビジュアルSLAMは、忠実性が高く、低コストで計算効率の良い実装の開発において、驚異的な成長を遂げてきた。その例は、様々な娯楽、情報、及び、実用的な用途のためのモバイル機器に加えて、ウェアラブルヘッドセット用の拡張現実用途、及び、ビジュアルポジショニングシステムを含む。このような実装は、様々な現場においてビジュアル地図を構築するために用いられる視覚的な参照点の豊富度を劇的に向上させ、また、ビジュアルSLAMシステムの速度及び精度も向上させてきた。最新のSLAMシステムは、今では、リアルタイムの速度で処理され得る物理的環境の3次元(3D)モデルとして動作することが多い。
ビジュアルSLAMが拡張現実やモバイル機器のために進歩してきた一方で、この分野は、これらの特定の種類の機器の一般的な製品要求及び所望の特徴集合を除けばこれまで進歩していない。一例として、これらの進歩を消費者向けロボット用途に適合させることには、複数の課題が残る。市販のビジュアルSLAMシステムは、実際の屋内、及び/または屋外の環境で動作する間にロボットによって日常的に経験される照明条件の変化の下で、動作不良または完全な機能停止を経験する。これらの問題に対処するために、拡張現実ゲームヘッドセットを装着するユーザは、ゲームをするためにユーザの部屋に追加の照明を点けるように指示されるか、またはゲームは、ヘッドセットが新たなビジュアル地図に再調整する間、読み込みを中断し得る。一方、ロボットは、中断または外部からの支援無しで動作する必要があることが多い。また、最新の実装は、ビジュアルSLAM地図の寿命の管理を考慮に入れることができず、ロボットの複数年の耐用年数にわたって信頼性のあるナビゲーションの動作を保証することができない。際限の無い地図ファイルの増加や地図の差分更新にかかる非常に高額な計算コストなどの多くの問題が、ビジュアルSLAMの有用性を制限する。
上記の結果として、本技術は、従来のシステム及び方法に関連する制限に対処するために、モバイル機器のための改善されたビジュアルナビゲーションシステム、及び、関連する方法を追求する。
[概要]
本開示の態様は、モバイル機器のためのビジュアルポジショニングシステム及び方法(訓練方法を含む)に関する。本明細書に開示されるビジュアルポジショニングシステムは、少なくとも1つの赤外線照明源に加えて、赤外線波長を検出するように構成される少なくとも1つのカメラも備える。赤外線投光照明源は、モバイル機器の位置推定(例えば、位置の確認)のために環境内の物体を照明するために用いられてもよく、構造化赤外線照明源は、環境内の(静的及び動的の両方の)障害物の検出及びマッピングのために物体を照明するために用いられてもよい。少なくとも1つのカメラ及び照明源の動作は、少なくとも1つのプロセッサによって調整され、赤外線投光照明源が、第1照明時間の間アクティブであり、構造化赤外線照明源が、第2照明時間の間アクティブであるようにされる。少なくとも1つのカメラは、第1照明時間を有する第1カメラ、及び第2照明時間を有する第2(例えば、深度)カメラを含んでもよい。画像による自己位置推定と地図作成の同時実行(ビジュアルSLAM)による地図は、第1カメラにて得られる画像を用いて構成されてもよい。カメラ及び照明源の調整、及び、カメラ及び少なくとも赤外線投光照明源の出力強度の選択は、様々な環境照明条件において1つのビジュアルSLAM地図を用いて、モバイル機器の位置推定及びナビゲーションを可能とするために、画像の一貫した露光量を提供する。非構造化住宅環境を自律ナビゲートするようにモバイルロボットを高速で訓練するための方法がさらに提供され、この方法は、モバイルロボットと関連付けられるオペレータインターフェースからオペレータ入力信号を受信することを含み、オペレータ入力信号は、異なる組の所望のロボット目的地の間の経路に沿ってモバイルロボットを案内する間に、規定ルートの記録を開始及び停止をするように構成され、規定ルートは、その後の位置特定及びナビゲーション動作の間にモバイルロボットによって用いられることとなるルートを特定する。非構造化住宅環境の少なくとも一部のビジュアルSLAM地図は、経路に沿ってモバイルロボットを案内する間に記録される周辺環境の画像から作成される。ビジュアルSLAM地図は、モバイルロボットによる非構造化住宅環境の事前の探索なく、且つ、非構造化住宅環境のいかなるビジュアルSLAM地図の事前の構築なく作成されてもよい。
ある態様において、本開示は、モバイル機器のためのビジュアルポジショニングシステムに関し、ビジュアルポジショニングシステムは、第1カメラ、赤外線投光照明源、及び、少なくとも1つのプロセッサを備える。第1カメラは、グローバルシャッタを有し、赤外線波長を検出するように構成され、第1カメラによって取得される画像を、画像による自己位置推定と地図作成の同時実行(ビジュアルSLAM)モジュールに供給するように構成される。第1カメラは、露光時間及び非露光時間を有し、第1カメラの露光時間と非露光時間とを自動的に繰り返すように構成される。赤外線投光照明源は、実質的に非構造化の発光を生成し、第1カメラの視野内の環境を周期的に照明するように構成される。少なくとも1つのプロセッサは、第1カメラ及び赤外線投光照明源の動作を制御するように構成される。第1カメラ及び赤外線投光照明源の動作は、赤外線投光照明源が、第1カメラの露光時間の少なくとも一部の間にアクティブとなるように構成され、赤外線投光照明源が、第1カメラの非露光時間の少なくとも一部の間に非アクティブとなるように構成されるよう調整される。さらに、プロセッサは、様々な環境照明条件にわたって、1つのビジュアルSLAM地図を用いたモバイル機器の位置推定及びナビゲーションを可能とするために、第1カメラによって得られる画像の一貫した露光量を提供するように、第1カメラの感度及び赤外線投光照明源の出力強度の両方が選択されるように構成される。
ある実施形態において、様々な環境照明条件は、自然光源によって生じる任意の昼間及び夜間の照明条件を含む。ある実施形態において、様々な環境照明条件は、自然、及び/または人工光源の発光を含む、任意の通常得られる屋内の住宅用照明条件を含む。ある実施形態において、様々な環境照明条件は、自然、及び/または人工光源の発光を含む、任意の通常得られる屋内の商業用照明条件を含む。ある実施形態において、様々な環境照明条件は、1つ以上の自然または人工光源による照明を有する第1照明条件を含み、さらに、いかなる自然光源及びいかなる人工光源による照明も無い第2条件を含む。
ある実施形態において、様々な環境照明条件は、少なくとも10,000ルクスにわたるダイナミックレンジを含む。ある実施形態において、様々な環境照明条件は、約0ルクスから約10,000ルクスの範囲、または約0ルクスから約50,000ルクスの範囲、または本明細書にて指定される別の範囲を含む。
ある実施形態において、環境は、住宅用ビル、オフィスビル、または商業用ビルの屋内領域を含む。ある実施形態において、環境は、ビジュアルSLAMモジュールによって地図作成される領域から20メートルの距離内に第1カメラで視認可能な少なくとも1つの壁または天井を含む。
ある実施形態において、赤外線投光照明源は、第1カメラの複数の露光時間に対して少なくとも5μW/cmのピーク赤外線照明レベルを、第1カメラの視野内で10メートルの距離で提供するように構成される。
ある実施形態において、ビジュアルポジショニングシステムは、環境から第1カメラへの非赤外線波長の通過を低減するように構成される光学フィルタをさらに備える。ある実施形態において、光学フィルタは、赤外線投光照明源のピーク発光波長の約10nmの範囲内に中心波長を有する光学バンドパスフィルタを含む。ある実施形態において、光学フィルタは、赤外線投光照明源のピーク発光波長の約50nmの範囲内にカットオン波長を有する光学ロングパス(ハイパスとも呼ばれ得る)フィルタを含む。
ある実施形態において、少なくとも1つのプロセッサは、(i)第1カメラによって取得される画像の露光量を評価し、(ii)画像の露光量の評価に対応して第1カメラの露光時間を変化させるように構成される。
ある実施形態において、少なくとも1つのプロセッサは、(i)第1カメラによって取得される画像の露光量を評価し、(ii)画像の露光量の評価に対応して赤外線投光照明源によって提供される照明のレベルを変化させるように構成される。ある実施形態において、赤外線投光照明源は、第1カメラの露光時間の間、予め設定された強度レベルで赤外線照明を提供するように構成される。
ある実施形態において、ビジュアルポジショニングシステムは、ビジュアルSLAMモジュールに、モバイル機器の方位及び加速度の変化を示す信号を供給するように構成される少なくとも1つの慣性計測装置をさらに備える。
ある実施形態において、赤外線投光照明源は、780nmから980nmの範囲内にピーク波長を有する発光を生成するように構成される。
ある実施形態において、第1カメラは、少なくとも1つの単眼赤外線カメラを含む。ある実施形態において、第1カメラは、少なくとも1つのステレオ赤外線カメラを含む。
ある実施形態において、ビジュアルポジショニングシステムは、赤外線波長を検出するように構成される少なくとも1つの第2カメラと、少なくとも1つの第2カメラの視野内の環境を構造化照明時間の間に構造化赤外線照明パターンにて周期的に照明するように構成される構造化赤外線照明源と、をさらに備え、少なくとも1つの第2カメラの視野の少なくとも一部は第1カメラの視野と重なり、少なくとも1つの第2カメラ及び構造化照明源の動作は、少なくとも1つの第2カメラの露光時間が、構造化照明時間の少なくとも一部と重なるように調整され、構造化照明源は、第1カメラの露光時間の間、非アクティブである。ある実施形態において、赤外線投光照明源は、第2カメラの露光時間の間、非アクティブである。
ある実施形態において、ビジュアルポジショニングシステムは、モバイル機器と関連付けられ、ビジュアルSLAMモジュールと通信するように構成されるデータ記憶装置をさらに備える。
ある実施形態において、ビジュアルポジショニングシステムは、モバイル機器と関連付けられる少なくとも1つのセンサをさらに備え、ビジュアルポジショニングシステムは、環境内のモバイル機器の手動または自律ナビゲーションの間に、(i)第1カメラによって取得される映像情報、及び/または画像と、(ii)少なくとも1つのセンサによって提供される知覚情報と、を記録するように構成される。
ある実施形態において、少なくとも1つのプロセッサは、環境のビジュアルSLAM地図を作成、且つ/または更新するために、記録された、第1カメラによって取得される映像情報、及び/または画像を処理し、少なくとも1つのセンサによって提供される知覚情報を処理するように構成される。ある実施形態において、少なくとも1つのプロセッサは、ビジュアルSLAMモジュールを実行するようにさらに構成される。
ある実施形態において、ビジュアルSLAMモジュールは、環境のビジュアルSLAM地図を作成、且つ/または更新するために、環境内の視覚的特徴の検出及びマッピングを利用するように構成される。
別の態様において、本開示は、モバイル機器のためのビジュアルポジショニングシステムに関し、赤外線波長を検出するように構成され、ビジュアルSLAMモジュールに画像を供給するように構成される少なくとも1つのカメラと、第1赤外線照明源と、第2赤外線照明源と、少なくとも1つのカメラ、第1赤外線照明源、及び第2赤外線照明源の動作を制御するように構成される少なくとも1つのプロセッサと、を備える。第1赤外線照明源は、第1照明時間の間に、少なくとも1つのカメラの視野内の環境に、実質的に非構造化の投光照明を提供するように構成される。第2赤外線照明源は、第2照明時間の間に、少なくとも1つのカメラの視野内の環境内に構造化赤外線照明パターンを提供するように構成される。少なくとも1つのカメラは、第1露光時間及び第2露光時間を有する。第1露光時間は第1照明時間と少なくとも部分的に重なり、第2赤外線照明源は、第1露光時間の間、非アクティブである。第2露光時間は、第2照明時間と少なくとも部分的に重なる。
ある実施形態において、赤外線投光照明源は、第2露光時間の間、非アクティブである。
ある実施形態において、少なくとも1つのカメラは第1カメラ及び第2カメラを含み、第1赤外線照明源は、第1照明時間の間に、第1カメラの視野内の環境に、実質的に非構造化の投光照明を提供するように構成され、第2赤外線照明源は、第2照明時間の間に第2カメラの視野内の環境に、構造化赤外線照明パターンを提供するように構成され、第1カメラは、第1露光時間を有し、第2カメラは、第2露光時間を有し、第2カメラの視野の少なくとも一部は、第1カメラの視野に重なる。ある実施形態において、赤外線投光照明源は、第2露光時間の間、非アクティブである。
ある実施形態において、第1カメラは、グローバルシャッタを有する。
ある実施形態において、ビジュアルポジショニングシステムは、環境から第1カメラへの非赤外線波長の通過を低減するように構成される光学フィルタをさらに備える。ある実施形態において、光学フィルタは、赤外線投光照明源のピーク発光波長の約10nmの範囲内に中心波長を有する光学バンドパスフィルタを含む。ある実施形態において、光学フィルタは、赤外線投光照明源のピーク発光波長の約50nmの範囲内にカットオン波長を有する光学ロングパスフィルタを含む。
ある実施形態において、少なくとも1つのプロセッサは、(i)第1カメラによって取得される画像の露光量を評価し、(ii)第1カメラによって取得される画像の露光量の評価に対応して第1カメラの露光時間を変化させるように構成される。
ある実施形態において、ビジュアルポジショニングシステムは、ビジュアルSLAMモジュールに、モバイル機器の方位及び加速度の変化を示す信号を供給するように構成される少なくとも1つの慣性計測装置をさらに備える。
ある実施形態において、第1赤外線照明源または第2赤外線照明源の少なくとも1つは、780nmから980nmの範囲内にピーク波長を有する発光を生成するように構成される。
ある実施形態において、少なくとも1つのカメラは、少なくとも1つの単眼赤外線カメラを含む。ある実施形態において、少なくとも1つのカメラは、少なくとも1つのステレオ赤外線カメラを含む。
ある実施形態において、ビジュアルポジショニングシステムは、モバイル機器と関連付けられ、ビジュアルSLAMモジュールと通信するように構成されるデータ記憶装置をさらに備える。
ある実施形態において、ビジュアルポジショニングシステムは、モバイル機器と関連付けられる少なくとも1つのセンサをさらに備え、ビジュアルポジショニングシステムは、環境内のモバイル機器の手動または自律ナビゲーションの間に、(i)少なくとも1つのカメラによって取得される映像情報、及び/または画像と、(ii)少なくとも1つのセンサによって提供される知覚情報と、を記録するように構成される。
ある実施形態において、少なくとも1つのプロセッサは、環境のビジュアルSLAM地図を作成、且つ/または更新するために、記録された、少なくとも1つのカメラによって取得される映像情報、及び/または画像を処理し、少なくとも1つのセンサによって提供される知覚情報を処理するように構成される。
ある実施形態において、ビジュアルSLAMモジュールは、環境のビジュアルSLAM地図を作成、且つ/または更新するために、環境内の視覚的特徴の検出及びマッピングを利用するように構成される。
ある実施形態は、本明細書にて開示されるビジュアルポジショニングシステムを備えるモバイル機器を対象にする。ある実施形態において、モバイル機器は、自律または半自律移動走行車を含む。ある実施形態において、移動走行車は、複数の能動的に駆動される車輪または回転履帯を備え、それぞれの能動的に駆動される車輪または履帯は、能動的に駆動される車輪または履帯の回転を検知するように構成されるエンコーダを備え、モバイル機器は、それぞれのエンコーダによって検知される車輪または履帯の回転情報を、ビジュアルSLAMモジュールに供給するように構成される。ある実施形態において、モバイル機器は、住宅用に構成される自律回収、及び/または配送ロボットを含む。ある実施形態において、モバイル機器は、商業または産業用に構成される自律回収、及び/または配送ロボットを含む。ある実施形態において、モバイル機器は、人間または動物のユーザによって身に着けられるように構成されるウェアラブル機器を含む。ある実施形態において、モバイル機器は、人間のユーザによって用いられるように構成される移動支援機器を含む。
別の態様において、本開示は、非構造化住宅環境をナビゲートする自律動作のために構成されるモバイルロボットを高速で訓練するための方法に関し、本方法は、非構造化住宅環境内の所望のロボット目的地の集合を特定することであって、所望のロボット目的地の集合は、少なくとも4つ所望のロボット目的地を含む、特定することと、それぞれの異なる組の所望のロボット目的地の間の完全な接続性を構築できるようにするために、所望のロボット目的地の集合の少なくとも最小数の異なる組の所望のロボット目的地の間の経路に沿ってモバイルロボットを案内することと、モバイルロボットに関連付けられるオペレータインターフェースからのオペレータ入力信号を受信することであって、オペレータ入力信号は、モバイルロボットを経路に沿って案内する間に、規定ルートの記録を開始及び停止するように構成され、規定ルートは、その後の位置特定及びナビゲーション動作の間にモバイルロボットによって用いられることとなるルートを特定する、受信することと、モバイルロボットを経路に沿って案内する間に、モバイルロボットによって経験される周辺環境の画像を記録することと、記録された画像から非構造化住宅環境の少なくとも一部のビジュアルSLAM地図を作成することと、を含む。
ある実施形態において、本方法は、非構造化住宅環境の少なくとも一部のビジュアルSLAM地図内に、規定ルート及び所望のロボット目的地の位置をマッピングすること、をさらに含む。
ある実施形態において、本方法は、規定ルートの異なるルートに関するビジュアルSLAMマッピング情報間の重なり、または、交点を特定すること、をさらに含む。
ある実施形態において、ビジュアルSLAM地図を作成することは、非構造化住宅環境に関するいかなるビジュアルSLAM地図の事前の構築なしに実施される。
ある実施形態において、ビジュアルSLAM地図を作成することは、モバイルロボットによる非構造化住宅環境の事前の探索なしに実施される。
ある実施形態において、本方法は、ビジュアルSLAM地図を作成、且つ/または更新するために、非構造化住宅環境内の視覚的特徴の検出及びマッピングを利用すること、をさらに含む。
ある実施形態において、規定ルートから、予め定められる、またはオペレータが定める距離の外側のモバイルロボットの動作が、モバイルロボットのオペレータによって許可される場合を除いて、規定ルートは、モバイルロボットに、規定ルートから、予め定められる、またはオペレータが定める距離内でのみ動作させる。
ある実施形態において、本方法は、新たに特定される、または、予め特定される所望のロボット目的地の少なくとも一組を接続する少なくとも1つの経路に沿ってモバイルロボットを案内するオペレータによって、ビジュアルSLAM地図を更新することをさらに含み、少なくとも1つの経路は、事前に規定されたルートと重なるか、または事前に規定されたルートからの、特定の近距離の範囲に入る。
ある実施形態において、本方法は、(i)所望のロボット目的地の特定、または(ii)規定ルートの特定に加え、モバイルロボットの位置の特定、の少なくとも1つを、視覚的なユーザインターフェース上に表示すること、をさらに含む。
ある実施形態において、モバイルロボットは、(i)赤外線波長を検出するように構成される少なくとも1つの第1カメラと、(ii)少なくとも1つの第1カメラの視野内の周辺環境に、実質的に非構造化の投光照明を提供するように構成される第1赤外線照明源と、(iii)少なくとも1つの第1カメラの動作を制御するように構成される少なくとも1つのプロセッサと、を備える。このような実施形態において、モバイルロボットによって経験される周辺環境の画像を記録することは、複数の第1照明時間の間に、少なくとも1つの第1カメラの視野内の物体を照明することと、複数の第1照明時間のそれぞれの照明時間の間に、少なくとも1つの第1カメラを用いて画像を記録することと、を含む。
ある実施形態において、モバイルロボットは、赤外線波長を検出するように構成される少なくとも1つの第2カメラと、少なくとも1つの第2カメラの視野内の周辺環境を、構造化照明時間の間に構造化赤外線照明パターンにて周期的に照明するように構成される構造化赤外線照明源と、をさらに備え、少なくとも1つの第2カメラの視野の少なくとも一部は、第1カメラの視野と重なり、少なくとも1つの第2カメラ及び構造化照明源の動作は、少なくとも1つの第2カメラの露光時間が、構造化照明時間の少なくとも一部と重なるように調整され、構造化照明源は、第1カメラの露光時間の間、非アクティブである。このような実施形態において、本方法は、少なくとも1つの第2カメラの視野内の周辺環境を、構造化照明時間の間に構造化赤外線照明パターンにて照明することと、少なくとも1つの第2カメラの視野内の周辺環境の画像を、構造化照明時間の間に取得することと、をさらに含む。ある実施形態において、赤外線投光照明源は、第2カメラの露光時間の間、非アクティブである。
ある実施形態において、モバイルロボットは、少なくとも1つのセンサを備え、本方法は、経路に沿ってモバイルロボットを案内する間に、少なくとも1つのセンサによって提供される知覚情報を記録すること、をさらに含む。
ある実施形態において、モバイルロボットは、住宅用に構成される自律回収、及び/または配送ロボットを含む。
ある実施形態において、本方法は、モバイルロボットに、1つ以上のルートを通過させ、1つ以上のルート上の複数の位置で周辺環境の360度画像の代表的な画像を周期的に取得させることと、周期的に取得される画像を処理することと、周期的に取得される画像の処理によって得られる情報を用いて、ビジュアルSLAM地図を補完することと、をさらに含む。
別の態様において、本明細書にて説明されるような上記の態様、及び/または様々な個別の態様の何れかは、さらなる利点のために組み合わされてもよい。本明細書にて開示されるような様々な特徴及び要素は、本明細書にて別段の指示が無い限り、1つ以上の他の開示される特徴及び要素と組み合わされてもよい。
本開示の他の態様、特徴、及び、実施形態は、次の開示及び添付の特許請求の範囲により、さらに十分に明らかとなるであろう。
添付図面及び以下の特許請求の範囲は、本開示の主題のさらなる理解をもたらすために記載され、本明細書の一部に援用され、本明細書の一部を構成する。本図面は、本開示の主題の様々な実施形態を示し、この説明と共に本開示の主題の原理及び動作を説明する。
本開示の一実施形態による、モバイル機器のための例示的なビジュアルポジショニングシステムの様々な構成要素間の相互接続を示す模式図である。 第1及び第2赤外線照明源、及び視野が重なる第1及び第2赤外線カメラを備える本明細書にて開示されるようなビジュアルポジショニングシステムを備えるモバイルロボットの側面図である。 ある実施形態による、第1赤外線カメラ露光時間、赤外線投光照明源時間、第2赤外線カメラ露光時間、及び構造化照明源時間に関する動作時間ウィンドウを提供する。 ある実施形態による、第1赤外線カメラ露光時間、赤外線投光照明源時間、第2赤外線カメラ露光時間、及び構造化照明源時間に関する動作時間ウィンドウを提供する。 ある実施形態による、赤外線投光照明源時間、赤外線深度カメラ露光時間、及び構造化照明源時間に関する動作時間ウィンドウを提供する。 ある実施形態による、赤外線投光照明源時間、赤外線深度カメラ露光時間、及び構造化照明源時間に関する動作時間ウィンドウを提供する。 ある実施形態による、モバイルロボットによって利用可能なルート地図の作成、及び/またはモバイルロボットの訓練のための、所望のロボット目的地と、住宅環境内でロボットが取る複数組の所望のロボット目的地の間の個別のルートの識別を重ねた、住宅環境の物理的地図の上面図である。 所望のロボット目的地及びルートのみを含み、住宅環境の物理的地図を省略した図4Aの抜粋である。 図4Bの所望のロボット目的地及びルートを、ルート間の重なりを特定する点を加えて提供する図である。 一実施形態による、赤外線カメラ、照明源、及び少なくとも1つのプロセッサを備えるビジュアルポジショニングシステムを組み入れた移動支援機器の概略斜視図である。 図5Aの移動支援機器のカメラ及び照明源構成要素を備えるハウジングの概略斜視図である。 図5Aの移動支援機器の処理及び電源供給回路のためのハウジングの概略斜視図である。 一実施形態による、赤外線カメラ、照明源、及び少なくとも1つのプロセッサなどを利用するバーチャルリアリティヘッドセットを含むウェアラブルモバイル機器の概略正面図である。 本明細書にて開示されるシステムまたは方法の任意の構成要素に含まれ得るコンピュータシステムの一般化された表現である。
[詳細な説明]
モバイル機器のためのビジュアルポジショニングシステム及び関連する方法は、赤外線波長を検出するように構成される少なくとも1つのカメラ(任意に第1及び第2カメラに具体化される)、少なくとも1つの赤外線照明源、及び、少なくとも1つのプロセッサを利用する。赤外線投光照明源は、モバイル機器の位置推定(例えば、位置の確認)のために、環境において物体を照明するために用いられてもよく、構造化赤外線照明源は、環境において(静的及び動的の両方の)障害物の検出及びマッピングのために物体を照明するように用いられてもよい。少なくとも1つの赤外線カメラ及び照明源の動作は、赤外線投光照明源が、第1照明時間の間アクティブであり、構造化赤外線照明源が、第2照明時間の間アクティブであるように、少なくとも1つのプロセッサによって調整される。第1赤外線カメラは、環境内でモバイル機器の位置推定のために、赤外線投光照明源と連動して利用されてもよく、第2赤外線カメラ(例えば、深度カメラ)は、環境において(静的及び動的の両方の)障害物の検出及びマッピングのために物体を照明するように、構造化赤外線照明源と連動して利用されてもよい。第1赤外線カメラによって得られた画像は、モバイル機器の環境の、画像による自己位置推定と地図作成の同時実行(ビジュアルSLAM)による地図を作成するために用いられてもよい。カメラと照明源との調整、及び、カメラ及び少なくとも1つの赤外線投光照明源の出力強度の選択は、様々な環境照明条件において、1つのビジュアルSLAM地図を用いたモバイル機器の位置推定及びナビゲーションを可能にするために、画像の一貫した露光量を提供する。
本明細書にて用いられるような「モバイル機器」という用語は、(それ自身の動力、または、人間または動物によって供給される動力による何れかによって)環境内を通過し、且つ/または環境内で位置特定する対象である機器を広く指す。様々な実施形態によるモバイル機器の限定されない例は、自律走行車、移動式配送、及び/または回収ロボット、及び、ウェアラブル機器、娯楽機器、及び、移動支援機器などのユーザに位置付けられる機器を含む。
以下に説明する実施形態は、当業者が、本実施形態を実施することを可能にするために必要な情報を示し、本実施形態を実施する最良の形態を説明する。添付図面を考慮して以下の説明を読むと、当業者は本開示の概念を理解し、本明細書にて特には取り上げられていないこれらの概念の適用例を認識するであろう。これらの概念及び適用例は、本開示及び添付の特許請求の範囲の範囲内に含まれると理解されるべきである。
第1、第2などの用語が、様々な要素を説明するために本明細書において使用され得るものの、これらの要素は、これらの用語によって限定されるべきでないことが理解されるであろう。これらの用語は、1つの要素を別の要素と区別するためにのみ使用される。例えば、本開示の範囲から逸脱することなく、第1要素は第2要素と呼ばれる可能性があり、同様に、第2要素は第1要素と呼ばれる可能性がある。本明細書において使用される場合、「及び/または、且つ/または(and/or)」という用語は、1つ以上の関連して挙げられる項目の何れか、または、全ての組み合わせを含む。
「下の(below)」または「上の(above)」または「上側の(upper)」、「下側の(lower)」または「水平な(horizontal)」または「垂直な(vertical)」などの相対的な用語が、図に示されるような、1つの要素、層、または領域の、別の要素、層、または領域に対する関係を説明するために本明細書にて用いられることがある。これらの用語及び上述された用語は、図に示される方位に加え、装置の異なる方位も包含することを意図していると理解されるであろう。
本明細書にて用いられる専門用語は、特定の実施形態を説明する目的のものにすぎず、本開示を限定することを意図していない。本明細書にて用いられる場合、「1つの(a)」、「1つの(an)」、及び「当該、該、上記、前記(the)」という単数形は、文脈上、そうでないと明確に示されない限り、複数形も含むことを意図している。「備える、含む、有する(comprises)」、「備える、含む、有する(comprising)」、「備える、含む、有する(includes)」、及び/または「備える、含む(including)」という用語は、本明細書にて用いられるとき、述べられた特徴、整数、ステップ、動作、要素、及び/または構成要素の存在を特定するが、1つ以上の他の特徴、整数、ステップ、動作、要素、構成要素、及び/またはそれらのグループの存在または追加を排除するものではないと、さらに理解されるであろう。
他に定義されない限り、本明細書にて用いられる全ての用語(専門用語及び科学的な用語を含む)は、本開示が属する当業者によって一般的に理解される意味と同じ意味を有する。本明細書にて用いられる用語は、本明細書及び関連技術の文脈における意味と一致する意味を有すると解釈されるべきであり、本明細書にて明確に定義されない限り、理想化されたまたは過度に正式な意味に解釈されないことがさらに理解されるであろう。
低照度、または変化する照明条件下における既存のビジュアルナビゲーションソリューションの性能低下を克服するために、本明細書の実施形態は、赤外線照明源を備えるモバイル機器を含む。赤外線照明源(例えば、赤外線投光照明源)によって提供される照明領域は、モバイル機器と関連付けられる対応するカメラの視野と少なくとも同程度の広さにしてもよい。照明源は、十分な強度を提供するように選択され、カメラは、十分な感度のものが選択され、照明源とカメラとの間の調整は少なくとも1つのプロセッサによって制御され、様々な環境照明条件において、1つのビジュアルSLAM地図を用いたモバイル機器の位置推定及びナビゲーションを可能とするために十分な、画像の一貫した露光量を提供するようにする。
ある実施形態において、「様々な環境照明条件」という用語は、自然光源によって生じる任意の昼間及び夜間の照明条件を含む。このような様々な環境照明条件は、自然、及び/または人工光源の発光を含む、任意の通常得られる屋内の住宅用、または屋内の商業用照明条件を含んでもよい。ある実施形態において、様々な環境照明条件は、1つ以上の自然または人工光源による照明を有する第1照明条件を含み、さらに、いかなる自然光源及びいかなる人工光源による照明も無い第2条件を含む。ある実施形態において、様々な環境照明条件は、少なくとも10,000ルクスにわたるダイナミックレンジを含む。ある実施形態において、様々な環境照明条件は、約0ルクスから約10,000ルクスの範囲、または約0ルクスから約50,000ルクスの範囲、または本明細書にて特定される別の範囲を含む。
ある実施形態において、赤外線投光照明源は、第1カメラの複数の露光時間に関して、少なくとも2、少なくとも5、少なくとも7、または少なくとも10μW/cmのピーク赤外線照明レベルを、第1カメラの視野内で10メートルの距離で提供するように構成される。
ある実施形態において、モバイル機器は、モバイル機器の少なくとも1つの赤外線カメラから、少なくとも5メートル、少なくとも8メートル、少なくとも10メートル、または少なくとも20メートルまで離れた物体の適切に露光された画像を取得するように構成される。本文脈において、「適切に露光された」とは、ビジュアルSLAMの選択された実施によって用いられる視覚的特徴の良好な抽出のための十分な光の存在を指す。
本明細書にて述べられる赤外線カメラは、CMOSまたはCCDイメージセンサを内蔵するデジタルカメラを含んでもよい。ある実施形態において、カメラは、ローリングシャッタ画像スキャン技術の代わりにグローバルシャッタを利用してもよい。ローリングシャッタ技術を採用するイメージセンサは、センサの一方(例えば、上)から他方へライン毎の方法で順次画像をスキャンする。一方、グローバルシャッタ技術を採用するイメージセンサは、画像の全領域を同時にスキャン(または、露光)する。本明細書の実施形態による画像化性能は、グローバルシャッタを用いるカメラを利用して、露光時間に対してのみストロボ照明を許可することによって、大幅に改善され得る。ストロボ照明は、照明源によって用いられるエネルギの量を有益に削減し、目の安全基準の順守を可能にするために、人間が占める環境における赤外線発光の総量の削減にも利用され得る。
環境照明が搭載されたモバイル機器を提供することは、環境光源の変化により経験され得るであろう、画像において認識される変化を最小にする上で有用である。ある実施形態において、モバイル機器の照明源によって生じる赤外線照明は、任意の外部光源(例えば、500ルクスまで、1,000ルクスまで、2,000ルクスまで、5,000ルクスまで、10,000ルクスまで、または100,000ルクスまでの照明レベルを提供する外部光源)を完全に取り除き、いかなる条件下でも画像を実質的に同一に見えるようにするために十分な照明を提供し得る。ある実施形態において、赤外線照明は、発光ダイオード(LED)、有機発光ダイオードなどのような、1つ以上の固体発光体によって生成されてもよい。
ある実施形態において、光学フィルタを用いて、環境から赤外線カメラへの非赤外線波長の通過を削減することで、環境光源を抑制してもよい。ある実施形態において、光学フィルタは、光学バンドパスフィルタ、またはロングパスフィルタを含んでもよい。ある実施形態において、光学フィルタは、赤外線投光照明源のピーク発光波長の約10ナノメートル(nm)の範囲内(または、約5nm、または約2nmの範囲内)に中心波長を有する光学バンドパスフィルタを含んでもよい。ある実施形態において、照明源のピーク波長は、850nmまたはその付近の赤外線波長であってもよく、光学バンドパスフィルタは、干渉に基づく光学バンドパスフィルタを含んでもよい。ある実施形態において、光学フィルタは、赤外線投光照明源のピーク発光波長の約50nmの範囲内(または約30nmの範囲内、または約20nmの範囲内)にカットオン波長を有する光学ロングパスフィルタを含んでもよい。
ある実施形態において、モバイル機器は、少なくとも1つの慣性計測装置(IMU)を備え、これは、通常3軸のジャイロスコープ、3方向の加速度計を用いて、任意に磁力計と連動して、本体の直線及び角運動を(任意に方位と併せて)測定できる電子機器である。IMUは、モバイル機器の方位及び加速度の変化の情報をビジュアルSLAMモジュールに提供するために用いられてもよい。ある実施形態において、モバイル機器は、1つ以上のセンサを備える。用いられ得るセンサの例は、(限定されるものではないが)光学センサ、温度センサ、圧力センサ、振動センサ、音センサ、接触センサ、湿度センサ、傾斜センサ、及び、エンコーダを含む(これらは、移動走行車の能動的に駆動される車輪または回転履帯の回転に関連付けられ、検知するために用いられ得る)。ある実施形態において、IMU、及び/または1つ以上のセンサからの信号は、ビジュアルSLAM地図の作成、及び/またはモバイル機器の位置推定及びナビゲートを支援するために撮像情報と併せて用いられてもよい。
ある実施形態において、モバイル機器は、モバイル機器を含む環境の内側、及び/または外側の機器との通信を可能にするために、1つ以上の無線、及び/または有線通信インターフェースを備える。ある実施形態において、モバイル機器の通信インターフェースは、モバイル機器の外部にあるもののモバイル機器を含む環境内に局所的に配置される少なくとも1つの処理装置と(例えば無線で)通信するように構成される。ある実施形態において、環境内に局所的に配置されるもののモバイル機器の外部にある処理装置は、関連するメモリを備え、さらに、モバイル機器と通信するために(例えば、900MHz、2.4GHz、5GHz、または別の周波数で通信するように構成される)専用の通信インターフェースを備えるか、またはモバイル機器と通信するように構成される無線ルータと連結される。ある実施形態において、モバイル機器の通信インターフェースは、モバイル機器を含む環境から離れて配置される少なくとも1つの処理装置と、少なくとも1つの広域ネットワークまたはインターネットを介して通信するように構成される。ある実施形態において、モバイル機器の外部にある処理装置は、ビジュアルSLAM地図の作成、ビジュアルSLAM地図の拡張、及び/または更新、トラブルシューディング、及びソフトウェアのアップグレードなどの機能を実施または支援するために用いられてもよい。
図1は、本開示の一実施形態によるモバイル機器12のための例示的なビジュアルポジショニングシステム10の様々な構成要素の間の相互接続を示す模式図である。モバイル機器12は、環境11内に配置され、非構造化住宅環境または非構造化商業的環境にて任意に実施される。モバイル機器12は、関連するメモリ16を有するプロセッサ14(例えば、ソフトウェアなどの機械可読命令を実行するように構成される少なくとも1つのプロセッサ(任意には、複数のプロセッサ))を備える。モバイル機器12のIMU18及び1つ以上のセンサ20は、プロセッサ14に信号を供給するように構成されてもよい。プロセッサ14は、第1及び第2赤外線カメラ21,22及び関連する第1及び第2赤外線照明源23,24を制御するように構成される。1つ以上の赤外線カメラ21,22は、環境11からの非赤外線波長の通過を削減するために光学フィルタ25,26を備えてもよい。ある実施形態において、第1赤外線カメラ21の視野は、第2カメラ22の視野と、少なくとも部分的に重なる。ある実施形態において、第1赤外線照明源23は、実質的に非構造化の赤外線発光パターンを生成するように構成される赤外線投光照明源を含み、第1赤外線カメラ21の動作は、第1赤外線照明源23と調整される。ある実施形態において、第2赤外線照明源24は、構造化赤外線照明パターンを生成するように構成される構造化赤外線照明源を含み、第2赤外線カメラ22の動作は、第2赤外線照明源24と調整される。ある実施形態において、第1赤外線カメラ21は、第1赤外線照明源23の照明時間(つまり、周期的に繰り返す照明時間)と調整される第1露光時間(つまり、周期的に繰り返す露光時間)を有し、第2赤外線カメラ22は、第2赤外線照明源24の照明時間(つまり、周期的に繰り返す照明時間)と調整される第2露光時間(つまり、周期的に繰り返す露光時間)を有する。モバイル機器12は、通信インターフェース30をさらに備え、これは、1つ以上の外部機器との無線、及び/または有線通信を提供するために用いられてもよい。
処理装置31は、環境11内で、モバイル機器12の外部に配置されてもよい。処理装置31は、関連するメモリ36を有する少なくとも1つのプロセッサ34に加えて、通信インターフェース38を備えてもよい。通信インターフェース38は、モバイル機器12、及び少なくとも1つの遠隔処理装置41との通信を可能にするような(広域ネットワークまたはインターネットに任意に具体化される)通信ネットワーク40、との有線、及び/または無線通信を容易にし得る。遠隔処理装置41は、関連するメモリ46を有する少なくとも1つのプロセッサ44に加えて、通信インターフェース48を備えてもよい。ある実施形態において、モバイル機器12の外部の処理装置31,41は、ビジュアルSLAM地図の作成、ビジュアルSLAM地図の拡張、及び/または更新、トラブルシューティング、及びソフトウェアの更新などの機能を実施または支援するために用いられてもよい。
引き続き図1を参照すると、オペレータインターフェース、または、ユーザ入力要素37が、ロボット案内のステップの間に用いられる(例えば、ユーザによって設定される所望のロボット目的地の組の間の)規定ルートの記録を開始及び停止するように構成される入力信号を受信するために設けられる。ロボット案内のステップの一部として、モバイルロボットは、所望のロボット目的地の様々な組の間の経路に沿って(例えば、オペレータによって)案内され、ルートは、記録がアクティブである間に撮像された経路に対して設定される。ある実施形態において、ディスプレイ39(例えば、液晶ディスプレイ、有機ELディスプレイなど)は、モバイルロボットの訓練プロセス中、または動作中の何れかの(i)所望のロボット目的地の特定、または(ii)規定ルートの特定に加え、モバイルロボットの位置の特定、の少なくとも1つを表示するための視覚的なユーザインターフェースとして機能するよう設けられてもよい。ある実施形態において、ロボットがロボット案内のステップの間に経路に沿って案内される間に、ディスプレイ39が、1つ以上のルートの作成状況、及び/またはルート間の重なり、をオペレータに通知するために用いられてもよい。
図2は、(関連する第1及び第2赤外線照明源(図示なし)をそれぞれ有し)視野が重なる第1及び第2赤外線カメラ101,102を備える、本明細書にて開示されるようなビジュアルポジショニングシステムを備えるモバイルロボット100の側面図である。モバイルロボット100は、電動駆動輪110(及び非駆動輪112)と、バッテリ(図示なし)とを備え、自身の原動力で、環境内でモバイルロボット100を移動できる。第1赤外線カメラ101は、第1視野103を有し、第2赤外線カメラは、重複視野105を提供するように第1視野103と部分的に重なる第2視野104を有する。ある実施形態において、第2赤外線カメラ102は深度カメラを含み、任意に複数のカメラを含んでもよい。示されるように、第2赤外線カメラ102は、前方下向きに方向付けられてもよく、それにより、第2視野104が、(例えば、ナビゲーション中に潜在的な障害物を特定するために)モバイルロボット100の前面108に近接する前方の環境領域を照明するように配置され得る。第1赤外線カメラ101は、前方に方向付けられてもよく、それにより、第1視野103が、(例えば、モバイルロボット100の位置の特定を支援するために環境内の特徴を認識するために)モバイルロボット100の前面108の概して前方、そして、さらに遠くの前方の環境領域を照明するように配置され得る。ある実施形態において、第1赤外線カメラ101と関連付けられる第1照明源は、実質的に非構造化の赤外線発光を生成し、第1視野103内の環境を周期的に照明するように構成される赤外線投光照明源を含み、第2赤外線カメラ102と関連付けられる第2照明源は、構造化パターンを有する赤外線発光を生成し、第2視野104内の環境を周期的に照明するように構成される構造化赤外線照明源を含む。
構造化赤外線発光パターンは、深度カメラと共に使用するのに有益であるが、特に、位置推定に用いられるカメラの視野が、構造化赤外線発光源の照明領域と重なるとき、位置推定に用いられるカメラによる特徴の特定を妨げ得る。ある実施形態において、この問題を緩和するために、(深度カメラの露光時間と調整され得る)構造化赤外線発光源の照明時間は、位置推定カメラの露光時間と同期しないように調整され、その結果、赤外線発光パターンは、位置推定に用いられるカメラにより撮像されることに影響されない。ある実施形態において、位置推定に用いられるカメラは、本明細書において第1カメラと呼ばれ、第1露光時間を有し、障害物の特定に用いられる深度カメラは、第2カメラと呼ばれ、第2露光時間を有する。ある実施形態において、(ステレオカメラを具体化し得る)1つのカメラは、位置推定と障害物検出との両方を提供するために用いられてもよく、実質的に非構造化の照明を提供する赤外線投光照明源によって照明される物体の画像化(検出)は、位置推定のための第1時間の間に実施され、構造化赤外線照明源によって照明される物体の画像化は、第2時間の間に実施されてもよい。
ある実施形態において、少なくとも1つのカメラによって提供される第1及び第2露光時間は、赤外線投光(第1)照明源及び構造化赤外線(第2)照明源の第1及び第2照明時間とそれぞれ実質的に同期されてもよく、第1及び第2露光時間は、連続的であってもよく、重複しなくてもよい。このような配列の一例が図3Aに示され、第1赤外線カメラ露光時間、赤外線投光照明源時間、第2赤外線カメラ露光時間、及び構造化照明源時間のための動作時間ウィンドウが提供される。示されるように、それぞれの第1赤外線カメラ露光時間、及びそれぞれの赤外線投光照明源時間は、第1時間間隔iと一致し、それぞれの第2赤外線カメラ露光時間、及びそれぞれの構造化赤外線照明源時間は、第2時間間隔iに一致し、第1及び第2時間間隔i及びiは、順次繰り返され、重複しない。
ある実施形態において、位置推定に用いられるカメラは、深度センサと関連付けられる光源によって投影される赤外線パターンが、ビジュアルSLAMカメラの視野と重ならないように方向付けられるか、または向けられてもよい。
上述したように、ある実施形態において、1つのステレオカメラに基づく深度センサが、障害物の検出及び位置推定(例えば、ビジュアルSLAMナビゲーション)を提供するために用いられてもよく、実質的に非構造化の照明を提供する赤外線投光照明源によって照明される物体の画像化(検出)が、位置推定のための第1カメラ露光時間の間に実施され、構造化赤外線照明源によって照明される物体の画像化は、第2カメラ露光時間の間に実施されてもよい。このような実施形態において、照明源は、構造化照明源のオンとオフをインターレースする(組み合わせる)ように動作されてもよい。このような実施形態において、赤外線投光照明源は、第1カメラ露光時間の間に用いられ、(例えば、低照度、または、逆光の状況において深度センサステレオカメラを支援するために)(任意に)第2カメラ露光時間中にも用いられる。配列の例示的な実施形態が図3Bに図示される。示されるように、それぞれの位置推定カメラ露光時間は、第1時間間隔iの間に赤外線投光源の照明時間に一致し、それぞれの深度カメラ露光時間は、第2時間間隔iの間に、赤外線投光照明源及び構造化赤外線照明源のそれぞれの照明時間に一致し、第1及び第2時間間隔i及びiは、順次繰り返され、重複しない。
ある実施形態において、赤外線投光照明源は、構造化赤外線照明源がアクティブである間、深度カメラ(例えば、深度センサのステレオカメラ)の露光時間の間、非アクティブとなるように構成されてもよく、それにより、深度情報の抽出プロセスとの干渉が回避される。ある実施形態において、非アクティブな状態は、停止された状態(オフの状態)、または発光出力が僅かであるか、そうでなければビジュアルSLAMモジュールの性能を損なわないレベルに落とされた状態と一致し得る。ある実施形態において、赤外線投光照明源は、第1カメラの露光時間の間、及び/または第1カメラの第1露光時間外で、予め設定された強度レベルで赤外線照明を提供するように構成されてもよい。ある実施形態において、赤外線投光照明源の強度レベルは、(例えば、パルス幅変調を用いて駆動されて)変化させられてもよい。
ある実施形態において、構造化赤外線照明源がアクティブである期間、及び、構造化赤外線照明源が非アクティブである期間に深度センサのステレオカメラによってフレームが取得される間、赤外線投光照明源がアクティブとなるように構成されてもよい。このような配列が図3Cに示され、赤外線投光照明源は、第1及び第2時間間隔i及びiのそれぞれの間アクティブであり、同一のステレオ赤外線カメラの第1及び第2時間間隔i及びiのそれぞれに一致する第1及び第2カメラ露光ウィンドウは、位置推定及び深度画像化のためにそれぞれ用いられ、構造化赤外線照明源は、第2カメラ露光時間iの間にのみ用いられる。深度センサのステレオカメラの露光時間の間の赤外線投光発光源の発光による構造化赤外線照明の増強は、低照度の状況、及び/または、高コントラストまたは逆光の状況において、いくつかの深度センサの深度知覚品質を改善し得る。
ある実施形態において、構造化赤外線照明源が非アクティブである間に深度カメラによってフレームが取得される間、赤外線投光照明源がアクティブとなるように構成されてもよい。このような配列が図3Dに示され、赤外線投光照明源は、それぞれの第1時間間隔iの間アクティブであり、同一のステレオ赤外線カメラの第1及び第2時間i及びiのそれぞれに一致する第1及び第2カメラ露光ウィンドウは、位置推定及び深度画像化のためにそれぞれ用いられ、構造化赤外線照明源は、第2カメラ露光時間iの間にのみに用いられる。
ある実施形態において、赤外線投光照明源のピーク波長は、構造化赤外線照明源のピーク波長と同一または近くなるように構成されてもよい。さらに、ある実施形態において、深度センサのステレオカメラは、両方の赤外線照明源のピーク波長をほぼ一致させる光学フィルタ(例えば、バンドパスまたはハイパスフィルタ)を備えてもよい。
ある実施形態において、構造化赤外線照明源が、位置推定に用いられるカメラに干渉することを回避するために、位置推定に用いられるカメラ(例えば、第1カメラ)は、深度カメラと関連付けられる構造化赤外線照明源のピーク波長とは異なるピーク透過波長またはカットオフ波長を有する光学フィルタを備えてもよい。ある実施形態において、位置推定に用いられるカメラ(例えば、第1カメラ)は、そのピーク波長が、構造化赤外線照明源の発光のピーク波長とは異なる赤外線領域にピーク波長を有するバンドパスフィルタと共に構成されてもよい。ある実施形態において、赤外線投光照明源のピーク波長は、位置推定に用いられるカメラの光学バンドパスフィルタの中心波長と一致または重なるように構成されてもよい。
モバイル機器上の計算ハードウェアのコストを最小限に抑えるために、ある実施形態において、モバイル機器(例えばロボット)がアイドル状態である間の1回以上の間に、ビジュアルSLAM地図を更新する計算の負荷が高いタスクが実行されてもよい。ある実施形態において、このことは、モバイル機器が、環境を通ってナビゲートするか、または、案内される(例えば、押されるかまたは引かれる)たびに、カメラからの映像を全ての必要な知覚データと共に記録することによって実現されてもよい。続いて、記録された情報は、モバイル機器がアイドル状態であるか、そうでなければ、余剰の計算能力を有する1回以上の間に処理されてもよい。このような手順は、地図を更新するという計算上コストの高いタスクを、リアルタイムの動作に制約を課すことなく実行できるようにする。いくつかの適用において、モバイル機器がアイドル状態である間に、記録された情報の全てを処理するために十分な時間は無いかもしれない。ある実施形態において、キュー、先入先出制、スタック、または、類似の方法が、その後の処理のために記録される映像、及び、知覚情報の量を、記録時間に基づいて、可能な記憶容量までに制限するために用いられてもよい。ある実施形態において、処理のために経路を保持する決定は、経路に沿ったビジュアルSLAM地図内の視覚的特徴の量または密度及び、「年齢」に基づいて判定されてもよい。経路に沿った視覚的特徴の密度が低い場合、またはその特徴がかなり以前に作成されていた場合、そのとき、その経路は優先的に処理されてもよく、そうでなければ、記録は、新しい記録のために記憶領域が必要とされる場合に削除するためにマーキングされてもよい。
視覚的特徴地図のファイルサイズを制限するために、ある実施形態において、特徴の地理的な密度がビジュアルSLAM地図において維持され、予め設定された数値によって制限されてもよい。ある実施形態において、それぞれの特徴の作成及び最後の観測の時期もまた、地図において維持されてもよい。ある実施形態において、それぞれの特徴がナビゲーションのために何回用いられたかを記録するために、カウンタが維持されてもよい。上述の情報項目は、その後、どの特徴が保持され、どの特徴が地図から破棄されるべきかを決定するために用いられてもよい。ある実施形態において、モバイル機器は、特徴の地理的な密度を計算するプロセスを周期的に始動させてもよい。密度が予め設定された数値を超える領域において、最古の特徴は、予め設定された密度を維持するために地図から削除されてもよい。ある実施形態において、過剰な密度である領域は、1日を通じたヒストグラムのそれぞれのビンにおける特徴の数、または、1日を通じた経時的な密度に基づいてさらに評価されてもよい。その後、1日を通じて最高の密度または特徴数を有する時間帯における最古の特徴は、破棄されてもよい。ある実施形態において、特徴は、観測され、且つ/またはナビゲーションのために用いられた、それらの頻度または回数に基づいて破棄されてもよく、最も用いられない特徴が最初に破棄されてもよい。ある実施形態において、使用頻度が、年齢、及び/または最後に観測された時間と組み合わされて、何れの特徴が破棄されるべきであるかを決定するために用いられてもよい。特徴が頻繁に用いられるものの、特定の時間帯に用いられない場合には、そのような特徴は、用いられる頻度は低いものの地図にごく最近追加された特徴に先立って破棄されてもよい。
信頼性のある地図作成及びナビゲーションは、自律移動式ロボットのようなモバイル機器を利用して、簡潔で満足できるユーザ体験を提供するための鍵である。上記の改善点と結び付けられた本分野の進歩は、環境を1回通過することによる地図の作成が、同じ環境を通る信頼性のあるナビゲーションに足る地図の作成を可能にする。ある実施形態において、ロボットまたは他のモバイル機器は、セットアッププロセスの間に、環境を通る所望の経路に沿って案内され(例えば、押され、または引かれ)てもよく、または遠隔で制御されてもよい。このプロセスの間、ロボットは環境を通る経路を通過する間に映像及び知覚情報を記録し、記録の完了と同時または完了後に、ロボットは地図を構築し経路軌跡をメモリに保存する。この軌跡は、「ルート」と呼ばれ得る。1つのルートは、環境内の2つの点を接続してもよく、ロボットが、ルートの始点から終点または目的地点へナビゲートすることを可能にする。ロボットがナビゲートしなければならない環境内の点の間の十分な数のルートを記録することにより、初期ルート地図が作成される。ある実施形態において、このようなルート地図は、地下鉄の路線図のそれに類似する通過可能な修正ルート地図を構築するために、ルートが交差する、且つ/または重なる全ての点を発見するように処理されてもよい。通過可能な修正ルート地図は、ロボットが、任意の2つの目的地を接続する1つ以上の可能なルートを選択することを可能にする。ある実施形態において、セットアッププロセスの間にそれぞれのルートが記録された後、初期ルート地図が処理され、全ての点の間の接続性グラフが構築される。この接続性グラフは、セットアッププロセスに情報を与えることができ、目的地間の所望の接続性を実現するためにさらなるルートが記録されなければならないか否かを通知することができる。ある実施形態において、ロボットは、所望の目的地への最適ルートを、通過可能な修正ルート地図を用いて発見するように構成されてもよい。ロボットが、選択されたルートに沿ってナビゲートする間に障害物に遭遇し、与えられた制約の範囲内で障害物を避けてナビゲートできない場合、その後ロボットは停止し、経路が空くまで待機してもよい。このような制約の例は、選択されたルートから外れる最大距離に達することを含んでもよい。ある実施形態において、ロボットが障害物に遭遇し、選択されたルートを進み続けられない場合、ロボットは、別のルートを特定するために地下鉄路線図のような地図を参考にしてもよく、別のルートを特定すると、ロボットは自動的に別のルートを利用してもよい。
図4Aは、ある実施形態による、モバイルロボットによって利用可能なルート地図の作成、及び/またはモバイルロボットの訓練のための、所望のロボット目的地152と、住宅環境150内でロボットが取る複数組の所望のロボット目的地152の間の個別のルート154の識別を重ねた、住宅環境150の物理的地図の上面図である。各所望のロボット目的地152は、オペレータによって選択されてもよく、個別のルート154は、ロボット案内のステップの間に用いられる規定ルートの記録を開始及び停止するように構成される入力信号をオペレータが与える訓練法の間に構築されてもよく、それにより、モバイルロボットが、様々な組の所望のロボット目的地152の間の経路に沿って案内される(例えば、オペレータによって押される)とき、ルート154が、記録がアクティブである間に撮像された経路に対して作成される。
図4Bは、住宅環境150の物理的地図を省略する一方で、所望のロボット目的地152A~152I(総称して152)及びルート154A~154E(総称して154)のみを含む図4Aの抜粋である。示されるように、第1ルート154Aは、所望のロボット目的地152A~152Bを接続し、第2ルート154Bは、所望のロボット目的地152C,152Dを接続し、第3ルート154Cは、所望のロボット目的地152E,152Fを接続し、第4ルート154Dは、所望のロボット目的地152G,152Hを接続し、第5ルート154Eは、所望のロボット目的地152D,152Iを接続する。
図4Cは、通過可能な処理された地図を提供し、地図は、図4Bの所望のロボット目的地152A~152I及びルート154A~154Eに加え、選択されたルート152間の重なりを特定する中継点156A~156Fと、2つの近接する所望のロボット目的地152F,152Gに対応する統合目的地158と、をさらに含む。中継点156A,156Fは、異なるルート154の間、及び/または異なるルートがそれらの間に障害物の存在が無く互いに十分に近接する領域の間、の重なりによって規定されてもよい。通過可能な、処理された地図は、図4Aの環境150内のその後の位置特定及びナビゲーションの間にモバイルロボットによって用いられ得る。
多くの適用において、所望のルートに沿ったロボットの1回の通過の間、または、通過後に、環境の地図を作成し、且つ/または環境を通るルートを記録することは有益であり得る。そのような状況において、ロボットカメラの1つ以上のカメラは、環境の限定される視野にさらされるであろう。その結果、ビジュアルSLAM地図は、ルートを通るロボットの通過の間に1つ以上のカメラによって特定されるものに限定される視覚的特徴を有するであろう。さらに地図を改善するために、ある実施形態において、ロボットは、記録されたルートに沿って自律ナビゲートする間に、追加の手順を実行するように構成されて、空間のさらなる視点を取得して、所望のルートに沿ったロボットの最初の「訓練」通過の間にロボットの少なくとも1つのカメラの視野内で取得されなかったさらなる視覚的特徴を地図に追加するようにしてもよい。そのような追加の手順は、限定されるものではないが、所定の位置における任意の間隔での回転、最初の訓練経路から外れた異なる方向へのロボットの探索運動、及び/または回転と探索運動の組み合わせを含んでもよい。追加の手順の頻度、範囲、及び/または種類は、予め設定されてもよく、(環境設定を介して)手動で調整されてもよく、且つ/または環境の一部の通過、及び/または少なくともいくつかの追加の手順の実行において検出される増加分の特徴の数の、ナビゲーションシステムによる計算によって少なくとも部分的に操縦されてもよい。ある実施形態において、ロボットは、環境における人間の活動または他の変化などによって、経時的に変化した可能性がある追加の特徴を取得するために、任意に追加の手順を実行しながら、記録された経路に沿って周期的にナビゲートするように構成されてもよい。
本開示の1つの態様は、非構造化住宅環境をナビゲートする自律運転のために構成されるモバイルロボットを高速で訓練する方法に関し、本方法は、複数のステップを含む。第1ステップは、非構造化住宅環境内の所望のロボット目的地の集合を特定することを含み、所望のロボット目的地の集合は、(例えば、所望のロボット目的地の少なくとも2つの組を形成する)少なくとも4つのロボット目的地を含む。そのような特定は、モバイルロボットが人間のユーザを支援できる可能性が高い目的地に一致するように、オペレータによって実施されてもよい。第2ステップは、少なくとも最小数の異なる組の所望のロボット目的地の間の経路に沿ってモバイルロボットを(例えば、オペレータがモバイルロボットを引いたり押したりすることによって)案内して、それぞれの異なる組の所望のロボット目的地の間の完全な接続性の構築を可能にすることを含む。第2ステップと同時に実施されてもよい第3ステップは、モバイルロボットと関連付けられるオペレータインターフェースからのオペレータ入力信号を受信することを含み、オペレータ入力信号は、経路に沿ったモバイルロボットの案内の間に、規定ルートの記録を開始及び停止するように構成され、規定ルートは、その後の位置特定及びナビゲーション動作の間にモバイルロボットによって用いられることとなるルートを特定する。第4ステップは、経路に沿ったモバイルロボットの案内の間に、モバイルロボットによって経験される周辺環境の画像を(例えば、モバイルロボットの少なくとも1つのカメラを用いて)記録することを含む。第5ステップは、モバイルロボットによって記録された画像から非構造化住宅環境の少なくとも一部のビジュアルSLAM地図を作成することを含む。ビジュアルSLAM地図は、モバイルロボットと関連付けられるメモリに保存されてもよく、モバイルロボットの使用中に得られる画像、及び/または知覚情報に基づいて周期的に更新されてもよい。
ある実施形態において、本方法は、規定ルート及び所望のロボット目的地の位置を、非構造化住宅環境の少なくとも一部のビジュアルSLAM地図にマッピングすることをさらに含む。
ある実施形態において、本方法は、規定ルートの異なるルートに関するビジュアルSLAMマッピング情報間の、重なりまたは交点を特定することをさらに含む。ある実施形態において、指定される互いに近接する範囲内のルートの提供は、通過可能な、処理された地図を規定するために、重なりを構成してもよい。
ある実施形態において、ビジュアルSLAM地図を作成することは、非構造化住宅環境に関するいかなるビジュアルSLAM地図の事前の構築なしに、且つ/またはモバイルロボットによる非構造化住宅環境の事前の探索なしに実施される。
ある実施形態において、本方法は、ビジュアルSLAM地図を作成、且つ/または更新するために、非構造化住宅環境内の視覚的特徴の検出及びマッピングを利用することをさらに含む。
ある実施形態において、規定ルートからの、予め定められた、またはオペレータが定めた距離の外側におけるモバイルロボットの動作が、モバイルロボットのオペレータによって許可された場合を除いて、規定ルートは、モバイルロボットを、規定ルートからの、予め定められた、または、オペレータが定めた距離内でのみ動作させる。
ある実施形態において、本方法は、新たに特定される、または予め特定される所望のロボット目的地の少なくとも1つの組を接続する少なくとも1つの経路に沿ってモバイルロボットを案内するオペレータによってビジュアルSLAM地図を更新することをさらに含み、少なくとも1つの経路は、事前に規定されたルートに重なるか、または、事前に規定されたルートからの、特定の近距離の範囲に入る。
ある実施形態において、本方法は、(i)所望のロボット目的地の特定、または(ii)規定ルートの特定に加えたモバイルロボットの位置の特定、の少なくとも1つを、視覚的なユーザインターフェース上に表示することをさらに含む。
ある実施形態において、モバイルロボットは、(i)赤外線波長を検出するように構成される少なくとも1つの第1カメラと、(ii)少なくとも1つの第1カメラの視野内の周辺環境に実質的に非構造化の投光照明を提供するように構成される第1赤外線照明源と、(iii)少なくとも1つの第1カメラの動作を制御するように構成される少なくとも1つのプロセッサと、を備える。このような実施形態において、モバイルロボットによって経験される周辺環境の画像を記録することは、複数の第1照明時間の間に少なくとも1つの第1カメラの視野内の物体を照明することと、少なくとも1つの第1カメラを用いて、複数の第1照明時間のそれぞれの照明時間の間に画像を記録することと、を含む。
ある実施形態において、モバイルロボットは、赤外線波長を検出するように構成される少なくとも1つの第2カメラ、及び、少なくとも1つの第2カメラの視野内の周辺環境を、構造化照明時間の間に構造化赤外線照明パターンにて周期的に照明するように構成される構造化赤外線照明源をさらに備え、少なくとも1つの第2カメラの視野の少なくとも一部は、第1カメラの視野と重なり、少なくとも1つの第2カメラ及び構造化赤外線照明源の動作は、少なくとも1つの第2カメラの露光時間が、構造化照明時間の少なくとも一部と重なるように調整され、構造化照明源は、第1カメラの露光時間の間、非アクティブである。このような実施形態において、本方法は、少なくとも1つの第2カメラの視野内の周辺環境を、構造化照明時間の間に構造化赤外線照明パターンにて照明することと、少なくとも1つの第2カメラの視野内の周辺環境の画像を、構造化照明時間の間に取得することと、をさらに含む。ある実施形態において、赤外線投光照明源は、第2カメラの露光時間の間、非アクティブである。
ある実施形態において、モバイルロボットは、少なくとも1つのセンサを備え、本方法は、モバイルロボットを経路に沿って案内する間に少なくとも1つのセンサによって提供される知覚情報を記録することをさらに含む。
ある実施形態において、本方法は、モバイルロボットに1つ以上のルートを通過させ、1つ以上のルート上の複数の位置で周辺環境の360度画像の代表的な画像を周期的に取得させることと、周期的に取得される画像を処理することと、周期的に取得される画像の処理によって得られる情報を用いてビジュアルSLAMを補完することと、をさらに含む。
図5Aは、本明細書に開示されるようなビジュアルポジショニングシステムを組み入れた移動支援機器200の概略斜視図であり、図5Bは、カメラ及びその照明源の構成要素を備える第1及び第2ハウジング210,215の拡大図を提供し、図5Cは、処理及び電源供給回路のための第3ハウジング216の拡大図を提供する。移動支援機器200は、障害物を含む環境の通過を補助するために、視覚障害のあるユーザによって使用可能なユーザ誘導ローリング歩行具を具体化してもよい。移動支援機器は、ユーザを支持するためのハンドル202、フレーム204、及び、車輪206,208を備える。ある実施形態において、全ての車輪206,208は駆動されないものの、後車輪208は、車輪の回転を検知し、車輪の回転情報をビジュアルSLAMモジュールに供給するように構成されるリニアエンコーダ209を備える。ある実施形態において、後車輪208は、(例えばモータ(図示なし)を用いて)能動的に駆動されてもよい。移動支援機器200は、フレーム204に取付可能な第1から第3ハウジング210,215,216内に配置される構成要素を利用してもよい。第1ハウジング210は、第1及び第2赤外線カメラ211,212、及び構造化照明パターンを生成するように構成される構造化赤外線照明源214を備える。第2ハウジング215は、赤外線投光照明源213を備える。照明源213,214のための様々なハウジングの存在は、必要に応じて、照明源が平行でない方向に向けられることを可能にする。第3ハウジング216は、1つ以上のプロセッサ、慣性計測装置、1つ以上のセンサ、及びバッテリ(図示なし)などの他の構成要素を備える。様々なハウジング210,215,216は、通信ライン218によって接続されてもよい。第1及び第2赤外線カメラ211,212及び対応する赤外線照明源213,214は、使用中、環境のビジュアルSLAM地図を作成し、その後、ユーザを所望の目的地へ案内することを補助するよう、環境内の障害物をユーザに対して特定するために用いられてもよい。このような特定は、音声、及び/または振動信号を含んでもよい。
図6は、本明細書にて開示されるようなビジュアルポジショニングシステムを取り入れた(ユーザの頭に装着されるように構成される)バーチャルリアリティヘッドセットに具体化されるウェアラブルモバイル機器250の概略正面図である。ウェアラブルモバイル機器250は、ハウジング258、及び複数の前向きの赤外線カメラ251A-251B,252A-252Bと、赤外線照明源253,254及び少なくとも1つのセンサ256も備える。第1の一組の赤外線カメラ251A-251Bは、赤外線投光照明源253と連携するように構成されてもよく、環境内のモバイル機器250の位置推定に用いられてもよい。第2の一組の赤外線カメラ252A-252Bは、構造化赤外線照明源254と連携するように構成されてもよく、環境内の障害物の検出に用いられてもよい。第1及び第2の各一組の赤外線カメラ251A-251B,252A-252B、及び対応する赤外線照明源253,254は、使用中、環境のビジュアルSLAM地図を(プロセッサを用いて)作成し、その後、モバイル機器のユーザが参加しているゲームまたは他の娯楽活動において有益となり得るように、環境内でユーザに対する障害物を特定するために用いられてもよい。
図7は、本明細書にて開示されるシステムまたは方法の任意の構成要素に含まれ得る(プロセッサ、及び/または計算装置に任意に具体化される)コンピュータシステム300の一般化された表現の概略図である。これに関して、コンピュータシステム300は、本明細書にて開示されるこれらの、及び/または何れかの機能または処理を実施するために、コンピュータ可読媒体からの命令を実行するように構成される。これに関して、図7のコンピュータシステム300は、対応している通信サービスのスケーリングを支援するためにプログラム可能なデジタル信号処理回路をプログラムし、設定するために実行され得る命令の集合を含んでもよい。コンピュータシステム300は、ローカルエリアネットワーク(LAN)、イントラネット、エクストラネット、または、インターネットにおいて他の機械と接続(例えば、ネットワーク化)されてもよい。1つの機器のみが示される一方で、「機器」という用語は、本明細書にて開示される方法論の何れか1つ以上を実施するために、1つの(または、複数の)命令の集合を単独または共同で実行する機器の任意の集合を含むとも考えられるであろう。コンピュータシステム300は、特定用途向け集積回路(ASIC)、プログラマブルロジックコントローラ、プリント基板(PCB)などの電子ボードカード、サーバ、マイクロコントローラ、パーソナルコンピュータ、スマートフォン、または、任意の他の適切な機器に含まれる、1つまたは複数の回路であってもよく、または、1つまたは複数の回路を含んでもよい。
ある実施形態において、ビジュアルSLAM地図の作業コピーが、コンピュータシステム300の1つ以上の機器に保存されてもよい。ある実施形態において、ビジュアルSLAM地図の作業コピーが、モバイル機器に対してローカルな処理装置302上にローカルに保存され、操作されてもよい。ある実施形態において、ビジュアルSLAM地図の作業コピーが、モバイル機器から離れ、ネットワーク320を介してアクセス可能な少なくとも1つのプロセッサ装置にて(例えば、1つ以上のウェブ接続される機器、及び/またはクラウドコンピューティング機器に任意に具体化されるコンピュータサーバまたは他の機器にて)保存され、操作されてもよい。ある実施形態において、ビジュアルSLAM地図の第1部分は、モバイル機器に対してローカルなプロセッサ装置302上でクライアント、またはアプリケーションとして保存、且つ/または操作されてもよく、ビジュアルSLAM地図の第2部分は、第1部分と第2部分とが互いに連携するように構成されて、(例えば、ネットワーク320を介してアクセス可能なコンピュータサーバ、または1つ以上のウェブ接続される機器、及び/またはクラウドコンピューティング機器上に)遠隔で保存され、且つ/または操作されてもよい。
図7に示されるコンピュータシステム300は、処理装置またはプロセッサ302、メインメモリ304(例えば、読み出し専用メモリ(ROM)、フラッシュメモリ、シンクロナスDRAM(SDRAM)のようなダイナミックランダムアクセスメモリ(DRAM)など)、及びスタティックメモリ306(例えば、フラッシュメモリ、スタティックランダムアクセスメモリ(SRAM)など)を備え、これらは、データバス308を介して互いに通信してもよい。あるいは、処理装置302は、メインメモリ304、及び/またはスタティックメモリ306と、直接またはいくつかの他の接続手段を介して接続されてもよい。処理装置302は、コントローラであってもよく、メインメモリ304またはスタティックメモリ306は、任意の種類のメモリであってもよい。
処理装置302は、マイクロプロセッサ、中央処理装置などの1つ以上の汎用処理装置を示す。より具体的には、処理装置302は、複合命令セットコンピューティング(CISC)マイクロプロセッサ、縮小命令セットコンピューティング(RISC)マイクロプロセッサ、超長命令語マイクロプロセッサ(VLIW)、他の命令セットを実行するプロセッサ、または、命令セットの組み合わせを実行する他のプロセッサであってもよい。処理装置302は、本明細書にて説明される動作及びステップを実施するための命令内で処理ロジックを実行するように構成される。
コンピュータシステム300は、ネットワークインターフェース機器310をさらに備えてもよい。コンピュータシステム300は、また、命令を実行するときにコンピュータシステム300に通信される入力及び選択を受信するように構成される入力部312を備えてもよく、備えなくてもよい。コンピュータシステム300はまた、限定するものではないが、ディスプレイ、映像表示装置(例えば、液晶ディスプレイ(LCD)またはブラウン管(CRT))、英数字入力装置(例えば、キーボード)、及び/またはカーソル制御装置(例えば、マウス)を含む出力部314を備えてもよく、備えなくてもよい。
コンピュータシステム300は、コンピュータ可読媒体318に保存される命令316を含むデータ記憶装置を備えてもよく、備えなくてもよい。命令316はまた、それがコンピュータシステム300によって実行される間、メインメモリ304内、及び/または処理装置302内に、完全にまたは少なくとも部分的に存在してもよく、メインメモリ304及び処理装置302はコンピュータ可読媒体も構成する。命令316は、さらに、ネットワークインターフェース機器310を用いて、ネットワーク320を介して送信または受信されてもよい。
実施形態において、コンピュータ可読媒体318が1つの媒体として示される一方で、「コンピュータ可読媒体」という用語は、1つ以上の命令の集合を記憶する1つの媒体または複数の媒体(例えば、集中型または分散型のデータベース、及び/または関連するキャッシュ及びサーバ)を含むと考えられるべきである。「コンピュータ可読媒体」という用語はまた、処理装置が実行するための命令の集合の記憶、符号化、または、伝送が可能であり、処理装置に対し、本明細書にて開示される実施形態の任意の1つ以上の方法論を実施させる任意の媒体を含むと考えられるであろう。「コンピュータ可読媒体」という用語は、従って、限定されるものではないが、固体メモリ、光媒体、及び磁気媒体を含むと考えられるであろう。
本明細書にて開示される実施形態は、様々なステップを含む。本明細書にて開示される実施形態のステップは、ハードウェア構成要素によって実行または実施されるか、または、命令によりプログラムされる汎用または専用プロセッサに、ステップを実施させるために用いられ得る機械実行可能命令によって具体化されてもよい。あるいは、ステップは、ハードウェアとソフトウェアの組み合わせによって実施されてもよい。
本明細書にて開示される実施形態は、本明細書にて開示される実施形態によるプロセスを実施するために、コンピュータシステム(または、他の電子機器)をプログラムするために用いられ得る命令を記憶した機械可読媒体(またはコンピュータ可読媒体)を含み得るコンピュータプログラム製品、または、ソフトウェアとして提供されてもよい。機械可読媒体は、機械(例えば、コンピュータ)によって読み取り可能な形式で情報を記憶または送信する任意の構造を備える。例えば、機械可読媒体は、機械可読記憶媒体(例えば、ROM、ランダムアクセスメモリ(「RAM」)、磁気ディスク記憶媒体、光記憶媒体、フラッシュメモリ機器など)などを含む。
明確に別段の記載がない限り、上の説明から明らかなように、説明を通して、「分析する」、「処理する」、「計算する」、「判断する/決定する」、「表示する」などのような用語を利用する説明は、コンピュータシステムのレジスタ内で物理(電子)量として表現されるデータ及びメモリを処理し、コンピュータシステムメモリまたはレジスタまたは他のそのような情報記憶、送信、または表示装置内で同様に物理量として表現される他のデータに変換する、コンピュータシステム、または類似の電子計算装置の動作及びプロセスについて言及すると理解される。
本明細書にて示されるアルゴリズム及び表示は、本質的に、いかなる特定のコンピュータまたは他の装置と関係しない。様々なシステムが、本明細書の教示に従うプログラムと共に用いられてもよく、または、必要とされる方法のステップを実施するために、より特殊化された装置を構築することが便利であると分かるであろう。様々なこれらのシステムのために必要とされる構造が、上述の説明に開示される。さらに、本明細書にて説明される実施形態は、任意の特定のプログラム言語を参照して説明されていない。様々なプログラム言語が、本明細書にて説明されるような実施形態の教示を実施するために用いられてもよいと理解されるであろう。
当業者は、本明細書に開示される実施形態に関連して説明される様々な実例となる論理ブロック、モジュール、回路、及びアルゴリズムが、電子的ハードウェア、メモリまたは別のコンピュータ可読媒体に記憶される命令として実施されてもよく、プロセッサ、または他の処理装置、または、両方の組み合わせによって実行されてもよいとさらに理解するであろう。本明細書にて説明されるシステムの構成要素は、例として、任意の回路、ハードウェア構成要素、集積回路(IC)またはICチップなどにて用いられてもよい。本明細書にて開示されるメモリは、任意の種類及びサイズのメモリであってもよく、任意の種類の所望の情報を記憶するように構成されてもよい。この互換性を明確に示すために、様々な実例となる構成要素、ブロック、モジュール、回路、及びステップが、それらの機能性に関して一般的に上述されてきた。どのようにそのような機能性が実施されるかは、システム全体に課せられる、特定の用途、設計上の選択、及び/または設計上の制約に依存する。当業者は、それぞれの特定の用途に関して様々な方法で説明された機能性を実施してもよく、しかしながら、そのような実施決定は、本実施形態の範囲からの逸脱を引き起こすと解釈されるべきではない。
本明細書にて開示される実施形態と関連して説明される様々な実例となる論理ブロック、モジュール及び回路は、本明細書にて説明された機能を実施するように構成された、プロセッサ、デジタル信号プロセッサ(DSP)、ASIC、フィールドプログラマブルゲートアレイ(FPGA)、または、他のプログラマブルロジックデバイス、個別のゲートまたはトランジスタ論理回路、個別のハードウェア構成要素、またはそれらの任意の組み合わせにて実現または実施されてもよい。さらに、コントローラはプロセッサであってもよい。プロセッサは、マイクロプロセッサであってもよく、しかしながら代わりに、プロセッサは、任意の従来のプロセッサ、コントローラ、マイクロコントローラ、または、状態機械であってもよい。プロセッサは、計算装置の組み合わせ(例えば、DSPと、1つのマイクロプロセッサ、複数のマイクロプロセッサ、DSPコアに連結される1つ以上のマイクロプロセッサ、または任意の他のこのような構成との組み合わせ)として実施されてもよい。
本明細書にて開示される実施形態は、ハードウェア、及び、ハードウェアに記憶される命令に具体化されてもよく、例えば、RAM、フラッシュメモリ、ROM、電気的プログラマブルROM(EPROM)、電気的消去可能プログラマブルROM(EEPROM)、レジスタ、ハードディスク、リムーバブルディスク、CD-ROM、または、当該技術分野において周知の任意の他の形態のコンピュータ可読媒体の中に存在してもよい。記憶媒体は、プロセッサが記憶媒体から情報を読み込み、記憶媒体に情報を書き込むことができるように、プロセッサと結合される。あるいは、記憶媒体は、プロセッサと一体化されてもよい。プロセッサ及び記憶媒体は、ASICの中に存在してもよい。ASICは、遠隔局に存在してもよい。あるいは、プロセッサ及び記憶媒体は、個別の構成要素として、遠隔局、基地局、またはサーバに存在してもよい。
なお、本明細書の実施形態の何れかに説明される動作ステップは、例及び考察を提供するために説明されることに留意すべきである。説明される動作は、示される順序の他に多数の異なる順序で実施されてもよい。さらに、1つの動作ステップで説明される動作は、実際には複数の異なるステップにて実施されてもよい。加えて、実施形態において説明される1つ以上の動作ステップは、組み合わせられてもよい。当業者はまた、情報及び信号は、様々なテクノロジー及び技術の何れかを用いて表現され得ることを理解するであろう。例えば、上の説明を通して参照されたであろうデータ、命令、指令、情報、信号、ビット、シンボル、及びチップは、電圧、電流、電磁波、磁場、粒子、光場、または、これらの組み合わせによって表現されてもよい。
本開示の精神及び範囲を逸脱することなく、本発明の技術に対して様々な修正及び変形がなされ得ることは当業者にとって明らかであろう。本発明の技術の精神及び本質を取り入れて開示される実施形態の修正、組み合わせ、サブコンビネーション及び変形は当業者に想到され得るので、本発明の技術は、添付の特許請求の範囲、及びそれらの均等の範囲内の全てを含むと解釈されるべきである。

Claims (13)

  1. モバイル機器のためのビジュアルポジショニングシステムであって、
    赤外線波長を検出するように構成され、画像による自己位置推定と地図作成の同時実行(ビジュアルSLAM)モジュールに画像を供給するように構成される少なくとも1つの第1カメラと、
    赤外線波長を検出するように構成され、前記ビジュアルSLAMモジュールに画像を供給するように構成される少なくとも1つの第2カメラと、
    第1照明時間の間に、前記少なくとも1つの第1カメラの視野内の環境に、実質的に非構造化の投光照明を提供するように構成される第1赤外線照明源と、
    第2照明時間の間に、前記少なくとも1つの第2カメラの視野内の環境に、構造化赤外線照明パターンを提供するように構成される第2赤外線照明源と、
    前記少なくとも1つの第1カメラ、前記少なくとも1つの第2カメラ、前記第1赤外線照明源、及び前記第2赤外線照明源の動作を制御するように構成される少なくとも1つのプロセッサと、
    を備え、
    前記少なくとも1つの第2カメラの視野の少なくとも一部は、前記少なくとも1つの第1カメラの視野と重なり、
    前記少なくとも1つのプロセッサは、前記少なくとも1つの第1カメラの第1露光時間及び前記少なくとも1つの第2カメラの第2露光時間を制御するように構成され、
    前記第1露光時間は、前記第1照明時間と少なくとも部分的に重なり、前記第2赤外線照明源は前記第1露光時間の間、非アクティブであり、
    前記第2露光時間は、前記第2照明時間と少なくとも部分的に重なり、
    前記第2露光時間は、前記第1露光時間と一致しない、
    ビジュアルポジショニングシステム。
  2. モバイル機器のためのビジュアルポジショニングシステムであって、
    赤外線波長を検出するように構成され、画像による自己位置推定と地図作成の同時実行(ビジュアルSLAM)モジュールに画像を供給するように構成される少なくとも1つの第1カメラと、
    赤外線波長を検出するように構成され、前記ビジュアルSLAMモジュールに画像を供給するように構成される少なくとも1つの第2カメラと、
    第1照明時間の間に、前記少なくとも1つの第1カメラの視野内の環境に、実質的に非構造化の投光照明を提供するように構成される第1赤外線照明源と、
    第2照明時間の間に、前記少なくとも1つの第2カメラの視野内の環境に、構造化赤外線照明パターンを提供するように構成される第2赤外線照明源と、
    前記少なくとも1つの第1カメラ、前記少なくとも1つの第2カメラ、前記第1赤外線照明源、及び前記第2赤外線照明源の動作を制御するように構成される少なくとも1つのプロセッサと、
    を備え、
    前記少なくとも1つのプロセッサは、前記少なくとも1つの第1カメラの第1露光時間及び前記少なくとも1つの第2カメラの第2露光時間を制御するように構成され、
    前記第1露光時間は、前記第1照明時間と少なくとも部分的に重なり、前記第2赤外線照明源は前記第1露光時間の間、非アクティブであり、
    前記第2露光時間は、前記第2照明時間と少なくとも部分的に重なり、
    前記第2露光時間は、前記第1露光時間と一致せず、
    前記少なくとも1つのプロセッサは、(i)前記少なくとも1つの第1カメラ及び前記少なくとも1つの第2カメラによって取得される画像の露光量を評価し、(ii)前記第1カメラによって取得される画像の露光量の評価に対応して前記少なくとも1つの第1カメラ及び前記少なくとも1つの第2カメラの前記露光時間を変化させるように構成される、
    ビジュアルポジショニングシステム。
  3. 前記第1照明時間は、前記第2露光時間と少なくとも部分的に重なる、請求項1または請求項2に記載のビジュアルポジショニングシステム。
  4. 前記第2照明時間は、前記第1露光時間と重ならない、請求項1または請求項2に記載のビジュアルポジショニングシステム。
  5. 前記少なくとも1つの第1カメラ及び前記少なくとも1つの第2カメラを含むステレオ赤外線カメラを含む、請求項1~4の何れか1項に記載のビジュアルポジショニングシステム。
  6. (i)前記少なくとも1つの第1カメラまたは(ii)前記少なくとも1つの第2カメラの1つまたは複数は、少なくとも1つの単眼赤外線カメラを含む、請求項1~4の何れか1項に記載のビジュアルポジショニングシステム。
  7. 前記少なくとも1つの第1カメラ及び前記少なくとも1つの第2カメラによって取得される画像の一貫した露光量を提供して様々な環境照明条件にわたって1つのビジュアルSLAM地図を用いた前記モバイル機器の位置推定及びナビゲーションを可能とするために、前記少なくとも1つのプロセッサは構成され、前記少なくとも1つの第1カメラと前記少なくとも1つの第2カメラの感度は選択され、前記第1赤外線照明源の出力強度は選択される、請求項1~の何れか1項に記載のビジュアルポジショニングシステム。
  8. 前記ビジュアルSLAMモジュールに、前記モバイル機器の方位及び加速度の変化を示す信号を供給するように構成される少なくとも1つの慣性計測装置をさらに備える、請求項1~の何れか1項に記載のビジュアルポジショニングシステム。
  9. 前記モバイル機器と関連付けられる少なくとも1つのセンサをさらに備え、前記ビジュアルポジショニングシステムは、環境内の前記モバイル機器の手動または自律ナビゲーションの間に、(i)前記少なくとも1つの第1カメラ及び前記少なくとも1つの第2カメラによって取得される映像情報、及び/または画像と、(ii)前記少なくとも1つのセンサによって提供される知覚情報と、を記録するように構成される、請求項1~の何れか1項に記載のビジュアルポジショニングシステム。
  10. 前記少なくとも1つのプロセッサは、前記環境のビジュアルSLAM地図を作成、且つ/または更新するために、記録された、前記少なくとも1つのカメラによって取得される映像情報、及び/または画像を処理し、前記少なくとも1つのセンサによって提供される知覚情報を処理するように構成される、請求項に記載のビジュアルポジショニングシステム。
  11. 前記少なくとも1つのプロセッサは、(i)前記少なくとも1つの第1カメラ及び前記少なくとも1つの第2カメラによって取得される画像の露光量を評価し、(ii)前記第1カメラによって取得される画像の露光量の評価に対応して前記少なくとも1つの第1カメラ及び前記少なくとも1つの第2カメラの前記露光時間を変化させるように構成される、請求項1に記載のビジュアルポジショニングシステム。
  12. 自律または半自律移動走行車と請求項1~11の何れか1項に記載のビジュアルポジショニングシステムを備えるモバイル機器。
  13. 人間または動物のユーザによって身に着けられるように構成される、請求項1~11の何れか1項に記載のビジュアルポジショニングシステムを備えるモバイル機器。
JP2021501050A 2018-07-13 2019-07-15 様々な環境照明条件において動作可能なモバイル機器のためのビジュアルナビゲーション Active JP7396691B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023198151A JP2024042693A (ja) 2018-07-13 2023-11-22 様々な環境照明条件において動作可能なモバイル機器のためのビジュアルナビゲーション

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201862697520P 2018-07-13 2018-07-13
US62/697,520 2018-07-13
PCT/US2019/041846 WO2020014706A1 (en) 2018-07-13 2019-07-15 Visual navigation for mobile devices operable in differing environmental lighting conditions

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023198151A Division JP2024042693A (ja) 2018-07-13 2023-11-22 様々な環境照明条件において動作可能なモバイル機器のためのビジュアルナビゲーション

Publications (3)

Publication Number Publication Date
JP2021532462A JP2021532462A (ja) 2021-11-25
JPWO2020014706A5 JPWO2020014706A5 (ja) 2022-07-27
JP7396691B2 true JP7396691B2 (ja) 2023-12-12

Family

ID=69142074

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021501050A Active JP7396691B2 (ja) 2018-07-13 2019-07-15 様々な環境照明条件において動作可能なモバイル機器のためのビジュアルナビゲーション
JP2023198151A Pending JP2024042693A (ja) 2018-07-13 2023-11-22 様々な環境照明条件において動作可能なモバイル機器のためのビジュアルナビゲーション

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023198151A Pending JP2024042693A (ja) 2018-07-13 2023-11-22 様々な環境照明条件において動作可能なモバイル機器のためのビジュアルナビゲーション

Country Status (5)

Country Link
US (2) US11287262B2 (ja)
EP (1) EP3821206A4 (ja)
JP (2) JP7396691B2 (ja)
CN (1) CN112714858B (ja)
WO (1) WO2020014706A1 (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FI3805733T3 (fi) * 2018-05-31 2024-01-18 Psm Int Inc Laadunmittausmenetelmä ja laadunmittauslaite pitkää levymateriaalia varten
WO2020014706A1 (en) 2018-07-13 2020-01-16 Labrador Systems, Inc. Visual navigation for mobile devices operable in differing environmental lighting conditions
US11829143B2 (en) * 2018-11-02 2023-11-28 Aurora Operations, Inc. Labeling autonomous vehicle data
CN111209353B (zh) * 2018-11-21 2024-06-14 驭势科技(北京)有限公司 一种视觉定位地图加载方法、装置、***和存储介质
EP3890300B1 (en) * 2020-04-03 2023-01-25 Uav Autosystems Hovering Solutions España, S.L. A self-propelled vehicle
CN111692456A (zh) * 2020-06-23 2020-09-22 李柏松 一种用于管道检测的slam***及方法
US20220070353A1 (en) * 2020-08-27 2022-03-03 Shield Ai Unmanned aerial vehicle illumination system
US11609583B2 (en) * 2020-10-09 2023-03-21 Ford Global Technologies, Llc Systems and methods for nighttime delivery mobile robot with hybrid infrared and flash lighting
CN112864778A (zh) * 2021-03-08 2021-05-28 北京石头世纪科技股份有限公司 线激光模组和自移动设备
US20220284707A1 (en) * 2021-03-08 2022-09-08 Beijing Roborock Technology Co., Ltd. Target detection and control method, system, apparatus and storage medium
SE544614C2 (en) * 2021-03-22 2022-09-27 Husqvarna Ab Improved navigation for a robotic work tool in an area of insufficient signal reception
WO2023133419A2 (en) * 2022-01-04 2023-07-13 Labrador Systems, Inc. Tip-resistant caster assembly and mobile apparatus, and method facilitating autonomous navigation
WO2024102083A1 (en) * 2022-07-11 2024-05-16 Delivers Ai Robotik Otonom Surus Bilgi Teknolojileri A.S. A delivery system and mapping method for a delivery robot
CN115276813B (zh) * 2022-07-18 2023-07-21 瑞斯康达科技发展股份有限公司 波长自动适配方法、光纤通信***及计算机可读存储介质
WO2024016101A1 (en) * 2022-07-18 2024-01-25 Intelligent Cleaning Equipment Holdings Co., Ltd. Systems and methods for robotic navigation, teaching and mapping
US11800244B1 (en) * 2022-08-13 2023-10-24 Mojtaba Vaziri Method and apparatus for an imaging device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013544449A (ja) 2010-09-08 2013-12-12 マイクロソフト コーポレーション 構造化光および立体視に基づく深度カメラ
JP2016540186A (ja) 2013-09-27 2016-12-22 クゥアルコム・インコーポレイテッドQualcomm Incorporated ハイブリッドフォトナビゲーションおよびマッピング
JP2017527777A (ja) 2014-06-20 2017-09-21 クアルコム,インコーポレイテッド 時間共有を使用する自動複数深度カメラ同期化

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4954962A (en) * 1988-09-06 1990-09-04 Transitions Research Corporation Visual navigation and obstacle avoidance structured light system
US8538636B2 (en) * 1995-06-07 2013-09-17 American Vehicular Sciences, LLC System and method for controlling vehicle headlights
JP4161910B2 (ja) * 2004-01-28 2008-10-08 株式会社デンソー 距離画像データ生成装置及び生成方法,プログラム
US9250081B2 (en) * 2005-03-25 2016-02-02 Irobot Corporation Management of resources for SLAM in large environments
JP2010130343A (ja) * 2008-11-27 2010-06-10 Fujifilm Corp 撮像装置及びその駆動制御方法
KR101241803B1 (ko) * 2010-06-25 2013-03-14 엠텍비젼 주식회사 멀티 카메라 시스템을 이용한 차량용 영상 녹화 장치 및 방법
US9323250B2 (en) 2011-01-28 2016-04-26 Intouch Technologies, Inc. Time-dependent navigation of telepresence robots
US8779681B2 (en) 2011-06-03 2014-07-15 Osram Sylvania Inc. Multimode color tunable light source
US9037396B2 (en) 2013-05-23 2015-05-19 Irobot Corporation Simultaneous localization and mapping for a mobile robot
US11208628B2 (en) * 2013-08-09 2021-12-28 Massachusetts Institute Of Technology Nanobionic engineering of organelles and photosynthetic organisms
CN113916230A (zh) * 2014-11-26 2022-01-11 艾罗伯特公司 用于使用机器视觉***执行同时定位和映射的***和方法
CN107850899B (zh) * 2015-05-23 2022-04-19 深圳市大疆创新科技有限公司 使用惯性传感器和图像传感器的传感器融合
WO2017041303A1 (en) * 2015-09-11 2017-03-16 SZ DJI Technology Co., Ltd. Systems and methods for detecting and tracking movable objects
US10453185B2 (en) * 2015-11-12 2019-10-22 Aquifi, Inc. System and method for high dynamic range depth capture using multiple cameras
CN105607635B (zh) * 2016-01-05 2018-12-14 东莞市松迪智能机器人科技有限公司 自动导引车全景光学视觉导航控制***及全向自动导引车
KR102417177B1 (ko) 2016-02-18 2022-07-05 애플 인크. 인사이드-아웃 위치, 사용자 신체 및 환경 추적을 갖는 가상 및 혼합 현실을 위한 머리 장착 디스플레이
US10204262B2 (en) * 2017-01-11 2019-02-12 Microsoft Technology Licensing, Llc Infrared imaging recognition enhanced by 3D verification
CN111727158B (zh) 2017-11-03 2022-05-06 拉布拉多***公司 用于物件取放和运输的室内自动机器人***
US10565720B2 (en) * 2018-03-27 2020-02-18 Microsoft Technology Licensing, Llc External IR illuminator enabling improved head tracking and surface reconstruction for virtual reality
US10890921B2 (en) * 2018-05-31 2021-01-12 Carla R. Gillett Robot and drone array
US11048265B2 (en) * 2018-06-18 2021-06-29 Zoox, Inc. Occlusion aware planning
WO2020014706A1 (en) 2018-07-13 2020-01-16 Labrador Systems, Inc. Visual navigation for mobile devices operable in differing environmental lighting conditions

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013544449A (ja) 2010-09-08 2013-12-12 マイクロソフト コーポレーション 構造化光および立体視に基づく深度カメラ
JP2016540186A (ja) 2013-09-27 2016-12-22 クゥアルコム・インコーポレイテッドQualcomm Incorporated ハイブリッドフォトナビゲーションおよびマッピング
JP2017527777A (ja) 2014-06-20 2017-09-21 クアルコム,インコーポレイテッド 時間共有を使用する自動複数深度カメラ同期化

Also Published As

Publication number Publication date
US11898848B2 (en) 2024-02-13
JP2021532462A (ja) 2021-11-25
WO2020014706A1 (en) 2020-01-16
EP3821206A1 (en) 2021-05-19
CN112714858A (zh) 2021-04-27
US20210164785A1 (en) 2021-06-03
US20220214172A1 (en) 2022-07-07
JP2024042693A (ja) 2024-03-28
US11287262B2 (en) 2022-03-29
EP3821206A4 (en) 2021-08-18
CN112714858B (zh) 2024-07-09

Similar Documents

Publication Publication Date Title
JP7396691B2 (ja) 様々な環境照明条件において動作可能なモバイル機器のためのビジュアルナビゲーション
US11830618B2 (en) Interfacing with a mobile telepresence robot
US11468983B2 (en) Time-dependent navigation of telepresence robots
CN110475717A (zh) 用于uav和其他自主车辆的室内测绘和模块化控制以及相关***和方法
KR20220017515A (ko) 게임 플레이를 통한 환경의 세부 데이터 세트 생성 방법 및 시스템
CN104850120B (zh) 基于ihdr自主学习框架的轮式移动机器人导航方法
CN108780319A (zh) 软件更新方法、***、移动机器人及服务器
Magallán-Ramírez et al. Implementation of NAO robot maze navigation based on computer vision and collaborative learning
JP2006051864A (ja) 自動飛行制御システムおよび自動飛行制御方法
US11076137B1 (en) Modifying projected images
US20230205198A1 (en) Information processing apparatus, route generation system, route generating method, and non-transitory recording medium
Teh et al. Vision Based Indoor Surveillance Patrol Robot Using Extended Dijkstra Algorithm in Path Planning: Manuscript Received: 18 October 2021, Accepted: 4 November 2021, Published: 15 December 2021
JP2021071765A (ja) 経路データ収集装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220715

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220715

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230509

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230809

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231024

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231122

R150 Certificate of patent or registration of utility model

Ref document number: 7396691

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150