JPH02170205A - 光線システムで構成する視覚航法及び障害物回避装置 - Google Patents
光線システムで構成する視覚航法及び障害物回避装置Info
- Publication number
- JPH02170205A JPH02170205A JP1229472A JP22947289A JPH02170205A JP H02170205 A JPH02170205 A JP H02170205A JP 1229472 A JP1229472 A JP 1229472A JP 22947289 A JP22947289 A JP 22947289A JP H02170205 A JPH02170205 A JP H02170205A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- radiation
- vision system
- distance
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000000007 visual effect Effects 0.000 title abstract description 4
- 230000005855 radiation Effects 0.000 claims abstract description 46
- 238000012545 processing Methods 0.000 claims abstract description 34
- 238000000034 method Methods 0.000 claims description 19
- 238000001514 detection method Methods 0.000 claims description 13
- 238000003384 imaging method Methods 0.000 claims description 5
- 230000003287 optical effect Effects 0.000 claims description 5
- 229910052724 xenon Inorganic materials 0.000 claims description 3
- FHNFHKCVQCLJFQ-UHFFFAOYSA-N xenon atom Chemical compound [Xe] FHNFHKCVQCLJFQ-UHFFFAOYSA-N 0.000 claims description 3
- 230000002688 persistence Effects 0.000 claims 1
- 230000015654 memory Effects 0.000 abstract description 12
- 230000001360 synchronised effect Effects 0.000 abstract description 2
- 238000004364 calculation method Methods 0.000 description 7
- 210000002683 foot Anatomy 0.000 description 7
- 238000005286 illumination Methods 0.000 description 4
- 238000001228 spectrum Methods 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 238000005265 energy consumption Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 230000005469 synchrotron radiation Effects 0.000 description 2
- 238000002604 ultrasonography Methods 0.000 description 2
- 101100219392 Caenorhabditis elegans cah-3 gene Proteins 0.000 description 1
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 101100537803 Solanum lycopersicum TPS12 gene Proteins 0.000 description 1
- 241000270666 Testudines Species 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 210000003423 ankle Anatomy 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000002542 deteriorative effect Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000003711 image thresholding Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000010845 search algorithm Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 230000002747 voluntary effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3833—Creation or updating of map data characterised by the source of data
- G01C21/3837—Data obtained from a single source
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/0274—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Electromagnetism (AREA)
- Aviation & Aerospace Engineering (AREA)
- Computer Networks & Wireless Communication (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Manipulator (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Abstract
(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
め要約のデータは記録されません。
Description
【発明の詳細な説明】
この発明は、移動ロボットのような移動中の運搬装置の
ための一般的な飢法及び障害物回避ビジョンシステム、
特に、その運搬装置の進路に沿って投射されるおおむね
平面状に構造化された1つ以上の放射バタン並びに反射
された放射を感知するためのイメージセンサを含むビジ
ョンシステムに関する。
ための一般的な飢法及び障害物回避ビジョンシステム、
特に、その運搬装置の進路に沿って投射されるおおむね
平面状に構造化された1つ以上の放射バタン並びに反射
された放射を感知するためのイメージセンサを含むビジ
ョンシステムに関する。
移動ロボットのような自律性乗物は一般にその運搬装置
の飢法機能を通じて外部環境を感知するためのいくつか
のタイプのセンサーシステムからなっている。できれば
、そのセンサシステムは、ロボッ、トが、適当な活動を
起こせるように、そのロボットの進路内にある障害物を
感知するための能力を有することが望ましい、この活動
には障害物を迂回するためのロボットの進路の変更を含
むことがある。あるいは、また、支柱、ドアフレーム、
又は壁のような感知された物体が、あらかじめプログラ
ムされた軌道に従う位置ぎめ基準としてロボットが使用
する、航法用のランドマークを表わすこともある。シス
テムが採用している超音波、機械的接触構造及びレーザ
ー距離測定装置などは、技術的には知られている。
の飢法機能を通じて外部環境を感知するためのいくつか
のタイプのセンサーシステムからなっている。できれば
、そのセンサシステムは、ロボッ、トが、適当な活動を
起こせるように、そのロボットの進路内にある障害物を
感知するための能力を有することが望ましい、この活動
には障害物を迂回するためのロボットの進路の変更を含
むことがある。あるいは、また、支柱、ドアフレーム、
又は壁のような感知された物体が、あらかじめプログラ
ムされた軌道に従う位置ぎめ基準としてロボットが使用
する、航法用のランドマークを表わすこともある。シス
テムが採用している超音波、機械的接触構造及びレーザ
ー距離測定装置などは、技術的には知られている。
環境観察のためのカメラ、及び受動画像処理システムを
含むその他のシステムも知られている。
含むその他のシステムも知られている。
超音波検知器に関連して生じる問題は、環境中にいくつ
かの異なる反射特性を有する物体が通常存在することで
ある。物体は一般に寸法や表面特性及び超音波送信機へ
の向き方が異なっている。
かの異なる反射特性を有する物体が通常存在することで
ある。物体は一般に寸法や表面特性及び超音波送信機へ
の向き方が異なっている。
機械的接触機構に関連する問題は、すくなくとも分解能
が欠如していることと、信号を発生するためには障害物
に実際に接触しなけらばならないことである。
が欠如していることと、信号を発生するためには障害物
に実際に接触しなけらばならないことである。
イヤ業場+病院を通過するときの航法のような応用例に
おいては、障害物が人間であるかもしれない、これらの
応用例において、fil害物との!tk理的理財接触ま
しくないと評価される。レーザー距離測定装置は高価で
、しかも大型であり、かなりの体力消耗が要求される。
おいては、障害物が人間であるかもしれない、これらの
応用例において、fil害物との!tk理的理財接触ま
しくないと評価される。レーザー距離測定装置は高価で
、しかも大型であり、かなりの体力消耗が要求される。
伝統的な変動風景解析ビジョン・システムには、大量の
計算力が必要であり、その計算もかなり低速度であって
、しかも誤差を生じ易い。
計算力が必要であり、その計算もかなり低速度であって
、しかも誤差を生じ易い。
一般にデータの解釈が遅すぎて、リアルタイムの航法に
は役立たず、陰影を物体と解釈してしまうというような
航法誤差をもたらす誤りが実証されることがあり得る。
は役立たず、陰影を物体と解釈してしまうというような
航法誤差をもたらす誤りが実証されることがあり得る。
ロボットの環境内で、ビジュアルマーカ又はビーコンを
用意することも知られている。システムに余分な費用と
複雑さをもたらし、ロボットの運動が、ビーコンが見う
る領域内に制限されるので、そのようなビーコンは望ま
しくない。
用意することも知られている。システムに余分な費用と
複雑さをもたらし、ロボットの運動が、ビーコンが見う
る領域内に制限されるので、そのようなビーコンは望ま
しくない。
サービス地域内での移動ロボットの民間応用例には、床
掃除、身体障害者の補助、病院の輸送システム、郵便及
び保安などが含まれる。これらの応用例には、経費と体
力消耗が少なく、しかもリアルタイムでの移動データを
提供する、堅牢で信頼性の高い航法が必要になる。
掃除、身体障害者の補助、病院の輸送システム、郵便及
び保安などが含まれる。これらの応用例には、経費と体
力消耗が少なく、しかもリアルタイムでの移動データを
提供する、堅牢で信頼性の高い航法が必要になる。
したがって、移動ロボットに対して、画像と画像処理の
簡易化を用意することがこの発明の第一の目的となる。
簡易化を用意することがこの発明の第一の目的となる。
移動ロボットに対して、複雑な画像処理を必要とせず、
しかもある環境全域でロボットを誘導するための十分な
画像分解能を有するビジョンシステムを用意することが
発明の第二の目的である。
しかもある環境全域でロボットを誘導するための十分な
画像分解能を有するビジョンシステムを用意することが
発明の第二の目的である。
ロボットの環境内に、ビーコンその他の環境上の改変を
必要としない、移動ロボットのための画像システムを用
意することがこの発明の第三の目的である。
必要としない、移動ロボットのための画像システムを用
意することがこの発明の第三の目的である。
ロボットの進路に横たわっており、航法に関係のある障
害物やランドマークについて、完全で明瞭な解釈を用意
し、しかも在来の受動画像処理システムに比べて、複雑
さ、経費及び体力の消耗が最も少ない移動ロボットのた
めの画像システムを用意することがこの発明の第四の目
的である。
害物やランドマークについて、完全で明瞭な解釈を用意
し、しかも在来の受動画像処理システムに比べて、複雑
さ、経費及び体力の消耗が最も少ない移動ロボットのた
めの画像システムを用意することがこの発明の第四の目
的である。
すばやく作動し、ロボットの環境全域にわたって、ロボ
ットに連続的で適用可能な運動を許す、移動ロボットの
ためのビジョンシステムを用意することがこの発明の第
五の目的である。
ットに連続的で適用可能な運動を許す、移動ロボットの
ためのビジョンシステムを用意することがこの発明の第
五の目的である。
前述の諸問題が克服され、物体検知装置、すなわち、ロ
ボット環境に、この発明による構造化ビームを投射する
方法及び装置である1以上の放射ビーム投射器を備えた
、移動ロボットのような運!MWのためのビジョンシス
テムによってこの発明の目的は実現される。
ボット環境に、この発明による構造化ビームを投射する
方法及び装置である1以上の放射ビーム投射器を備えた
、移動ロボットのような運!MWのためのビジョンシス
テムによってこの発明の目的は実現される。
ビーム構造の放射は、ロボットの進路の直前を取り囲み
、さらに、旋回するために必要な空間を取り囲むための
十分な幅のおおむね平面状のパターンを有することが望
ましい。
、さらに、旋回するために必要な空間を取り囲むための
十分な幅のおおむね平面状のパターンを有することが望
ましい。
構造化ビームの輝度、特性及びパルス繰り返し率は、周
囲の照明条件の変化以上にイメージセンサのS/N比を
上げ、しかもエネルギーの消費か最小になるように見積
もられる。
囲の照明条件の変化以上にイメージセンサのS/N比を
上げ、しかもエネルギーの消費か最小になるように見積
もられる。
この発明による物体検知システムは、さらにロボットの
直前の進路を取り囲む二次元の視界を有する電子カメラ
を含むイメージセンサをも含んでいる、イメージセンサ
・プロセッサは、2進データとして表現される、カメラ
の視界内のイメージメモリにアクセス可能なデータ処理
装置に結合されたフレーム・グラツバすなわちイメージ
メモリを含んでいる0画像処理は、少なくとも、おおむ
ね平面状の構造化ビームの放射を反射する目標について
の、ロボットを基準にした距離と方向の情報を得るため
の構造化ビームパターンの記憶画像を三角測量によって
部分的に達成されるロボットのモーション・コントロー
ル・システムは、ビジョンシステムからデータを入力し
、それにより、ロボットの前方にある環境の態様に関す
るデータを推論する。
直前の進路を取り囲む二次元の視界を有する電子カメラ
を含むイメージセンサをも含んでいる、イメージセンサ
・プロセッサは、2進データとして表現される、カメラ
の視界内のイメージメモリにアクセス可能なデータ処理
装置に結合されたフレーム・グラツバすなわちイメージ
メモリを含んでいる0画像処理は、少なくとも、おおむ
ね平面状の構造化ビームの放射を反射する目標について
の、ロボットを基準にした距離と方向の情報を得るため
の構造化ビームパターンの記憶画像を三角測量によって
部分的に達成されるロボットのモーション・コントロー
ル・システムは、ビジョンシステムからデータを入力し
、それにより、ロボットの前方にある環境の態様に関す
るデータを推論する。
図1aにおいて、カメラ12のような電子画像装置及び
上部投射器14と下部投射器16のような複数の構造化
ビーム投射器からなる移動ロボットの具体例の1を側面
図が示される。
上部投射器14と下部投射器16のような複数の構造化
ビーム投射器からなる移動ロボットの具体例の1を側面
図が示される。
この発明において、この光学体系はロボ・yト10の進
路内にあるか又は近接している物体の位置を検知又は計
測する。これらの物体は家具や歩行者のような物体であ
ることもある。この物体はまた、ドアフレームのような
基準表面であることもある。
路内にあるか又は近接している物体の位置を検知又は計
測する。これらの物体は家具や歩行者のような物体であ
ることもある。この物体はまた、ドアフレームのような
基準表面であることもある。
カメラ12は、正方形や矩形の視界(FOV)を有し、
その視界が移動中のロボット10の進路の直前の区域を
取り巻くように、斜めに指向されているCCD1iIi
i(a装置からなることが望ましい、カメラ12は、複
数のピクセルを発生し、それぞれのピクセルが、カメラ
放射感知装置の関連表面区域に起こる放射の強さを表示
する値を有する。投射器14と16によって投射された
構造化ビーム14a及び16aは、それぞれが、おそら
くほとんど、家具、壁又はその他の障害物によって占め
られている領域における視界を横切るように配置された
、放射の面又はスリットの形状を有する。
その視界が移動中のロボット10の進路の直前の区域を
取り巻くように、斜めに指向されているCCD1iIi
i(a装置からなることが望ましい、カメラ12は、複
数のピクセルを発生し、それぞれのピクセルが、カメラ
放射感知装置の関連表面区域に起こる放射の強さを表示
する値を有する。投射器14と16によって投射された
構造化ビーム14a及び16aは、それぞれが、おそら
くほとんど、家具、壁又はその他の障害物によって占め
られている領域における視界を横切るように配置された
、放射の面又はスリットの形状を有する。
ロボット10は、さらに、カメラ12の出力に結合され
る画像処理袋[18をも含んでいる0画像処理装置18
は、図1bに詳細を示すように、カメラ12のビデオフ
レーム出力を含んでいる。ビデオメモリ18Aへの入力
は、カメラ12のアナログ出力をデジタlし化するアナ
ログ/デジタル(八/D)コンバータ18Bから供給さ
れる。 A/D 18Bのデジタル出力は、ピクセル輝
度が再割り当てされることがあるルックアップテーブル
(LOT)18 Cへのアドレス入力を形成することが
できる。しり718Cはまた、イメージ・スレシュホー
ルディング〈画像しきい値決定)、又はヒストグラム修
正のために使用されることもある6画像処理装置18は
、さらに、マイクロコンピュータ18Dのような画像処
理デバイスをも含んでおり、それはビデオメモリ18A
に結合され、そこから記憶されたビデオフレームデータ
を読みとるために役立つ1画像処理装置18は、さらに
、プログラムデータを記録するためのメモリを含んでい
るメモリ18Bを含む、このプログラムデータは、少な
くとも、記憶した画像フレームデータからの三角測量計
算、後に細部についての説明がなされる三角法計算、を
実施するために働く。
る画像処理袋[18をも含んでいる0画像処理装置18
は、図1bに詳細を示すように、カメラ12のビデオフ
レーム出力を含んでいる。ビデオメモリ18Aへの入力
は、カメラ12のアナログ出力をデジタlし化するアナ
ログ/デジタル(八/D)コンバータ18Bから供給さ
れる。 A/D 18Bのデジタル出力は、ピクセル輝
度が再割り当てされることがあるルックアップテーブル
(LOT)18 Cへのアドレス入力を形成することが
できる。しり718Cはまた、イメージ・スレシュホー
ルディング〈画像しきい値決定)、又はヒストグラム修
正のために使用されることもある6画像処理装置18は
、さらに、マイクロコンピュータ18Dのような画像処
理デバイスをも含んでおり、それはビデオメモリ18A
に結合され、そこから記憶されたビデオフレームデータ
を読みとるために役立つ1画像処理装置18は、さらに
、プログラムデータを記録するためのメモリを含んでい
るメモリ18Bを含む、このプログラムデータは、少な
くとも、記憶した画像フレームデータからの三角測量計
算、後に細部についての説明がなされる三角法計算、を
実施するために働く。
画像処理装置18は、さらに、ルックアップテーブルの
よ、うな特定の投射器14又は1Gの関連したデータ4
i113fiをそれぞれが記憶するメモリ18Fと18
Gをも含んでいる。それぞれは、少なくとも、1画像フ
レーム個々のピクセルに関連する距離と方向の情報に関
して各テーブルに記入する。この発明のこれについての
見地も、また、以下に細部について説明される0画像処
理装置18は、予定された期間中に投射器を作動させる
ために、投射器14と16に結合された複数の出力を有
することがある。後述されるように、投射器14と16
はカメラ12と互いに同期してないときには、カメラの
作動すなわち、フレーム率に対して一致される。カメラ
12の視界内にある物体に関する連続的な位置情報を表
示する画像処理装置の出力は、R3−232又はパラレ
ルデータリンクを通じ、その環境で知覚された画像に基
づいて航法データを作る航法制御処理装置20に供給さ
れる。このデータは、ロボットを直進させるために使用
されることもあり、またロボットの進路にある障害物の
回避のために、ロボットの進路を変更するために使用さ
れることもある。航法制御処理装置20の出力は、駆動
操向車輪24に結合される出力を有する、駆動操向制御
装置22に供給される。車@24は、通常は床面である
支持表面26に接触している。航法制御処理装置20は
、ロボット10が移動する距離に関するオドメータの連
続する読みを出力とする駆動操向制御装置22からの出
力を受領する。航法制御処理装置20は、通常関連のメ
モリと支持の回路を有するデータ処理デバイスからなっ
ている。囲いは前述の装置を収納し、これを防護するた
めに用意される。
よ、うな特定の投射器14又は1Gの関連したデータ4
i113fiをそれぞれが記憶するメモリ18Fと18
Gをも含んでいる。それぞれは、少なくとも、1画像フ
レーム個々のピクセルに関連する距離と方向の情報に関
して各テーブルに記入する。この発明のこれについての
見地も、また、以下に細部について説明される0画像処
理装置18は、予定された期間中に投射器を作動させる
ために、投射器14と16に結合された複数の出力を有
することがある。後述されるように、投射器14と16
はカメラ12と互いに同期してないときには、カメラの
作動すなわち、フレーム率に対して一致される。カメラ
12の視界内にある物体に関する連続的な位置情報を表
示する画像処理装置の出力は、R3−232又はパラレ
ルデータリンクを通じ、その環境で知覚された画像に基
づいて航法データを作る航法制御処理装置20に供給さ
れる。このデータは、ロボットを直進させるために使用
されることもあり、またロボットの進路にある障害物の
回避のために、ロボットの進路を変更するために使用さ
れることもある。航法制御処理装置20の出力は、駆動
操向車輪24に結合される出力を有する、駆動操向制御
装置22に供給される。車@24は、通常は床面である
支持表面26に接触している。航法制御処理装置20は
、ロボット10が移動する距離に関するオドメータの連
続する読みを出力とする駆動操向制御装置22からの出
力を受領する。航法制御処理装置20は、通常関連のメ
モリと支持の回路を有するデータ処理デバイスからなっ
ている。囲いは前述の装置を収納し、これを防護するた
めに用意される。
カメラ12は、PULNIX社製ノモデルTM440C
CDカメラが使用できる。カメラ12は、視界を最大に
するために、たとえば、6,5關程度の比較的短い焦点
距離のレンズを使用している。マイクロコンピュータ1
8Dは、Inte1社製の80286マイクロプ1フ七
ツサデバイスが使用できる。LOT 18C及びビデオ
メモリ18Aは、CorecoやIiagina Te
chno−og iesで作られるようなタイプのもの
がフレームグラバ−・PC配線板に納められている。
CDカメラが使用できる。カメラ12は、視界を最大に
するために、たとえば、6,5關程度の比較的短い焦点
距離のレンズを使用している。マイクロコンピュータ1
8Dは、Inte1社製の80286マイクロプ1フ七
ツサデバイスが使用できる。LOT 18C及びビデオ
メモリ18Aは、CorecoやIiagina Te
chno−og iesで作られるようなタイプのもの
がフレームグラバ−・PC配線板に納められている。
一般に、画像処理装置18は、バスを通じて普通のバッ
クプレイン及び通信回線に結合された標準のコンピュー
タアーキテクチャに適合する。この発明がいくつかの異
なる装置での実用化が試みられるべきであり、また、こ
こに提示される装置にのみ限定されると解釈すべきでは
ない。
クプレイン及び通信回線に結合された標準のコンピュー
タアーキテクチャに適合する。この発明がいくつかの異
なる装置での実用化が試みられるべきであり、また、こ
こに提示される装置にのみ限定されると解釈すべきでは
ない。
投射器14及び16は、すべての所望スペクトル特性を
持つ平面ビームの投射のために作動できるが、この発明
の推奨される応用例は、約700nm〜1000n1の
範囲の波長を持つ近赤外線光源の基板を採用する。近赤
外線放射はいくつかの理由で奨められる。近赤外線放射
はロボット10と共通の環境で働く人間に強制されない
、CCDのイメージングセンサーはローコストで電力消
費が少なく、近赤外線に敏感であるので推奨できる。加
えて、投射器14及び16については、赤外線放射ダイ
オード(LED)がエネルギ効率がよく、ローコストで
入手できる。この点においてレーザーダイオードデバイ
スは、放射出力あたりの消費電力が多く、またスペクト
ルもかなり狭いので、カメラ12の感度とのマツチング
がとりにくい、しかしながら、この発明は、白熱電球、
レーザー、フラッシュランプ、又はLEDなと、放射セ
ンサーにより効率的に検知される波長を有するいかなる
光源にも応用できる。また、平面状の放射パターンには
、ナイフェツジ開口部を備えたり、レンズでビームを収
束したり、又は視準した、又は光源や反射索子のいずれ
かによりR械的に走査するなど、これらに限定されるも
のではないが、いかなる技法も適用できるものである。
持つ平面ビームの投射のために作動できるが、この発明
の推奨される応用例は、約700nm〜1000n1の
範囲の波長を持つ近赤外線光源の基板を採用する。近赤
外線放射はいくつかの理由で奨められる。近赤外線放射
はロボット10と共通の環境で働く人間に強制されない
、CCDのイメージングセンサーはローコストで電力消
費が少なく、近赤外線に敏感であるので推奨できる。加
えて、投射器14及び16については、赤外線放射ダイ
オード(LED)がエネルギ効率がよく、ローコストで
入手できる。この点においてレーザーダイオードデバイ
スは、放射出力あたりの消費電力が多く、またスペクト
ルもかなり狭いので、カメラ12の感度とのマツチング
がとりにくい、しかしながら、この発明は、白熱電球、
レーザー、フラッシュランプ、又はLEDなと、放射セ
ンサーにより効率的に検知される波長を有するいかなる
光源にも応用できる。また、平面状の放射パターンには
、ナイフェツジ開口部を備えたり、レンズでビームを収
束したり、又は視準した、又は光源や反射索子のいずれ
かによりR械的に走査するなど、これらに限定されるも
のではないが、いかなる技法も適用できるものである。
出力放射ビーム14a及び16aのエネルギーは、環境
の照度を識別できる十分な大きさを有しておりしかも消
費電力は極めて小さい。
の照度を識別できる十分な大きさを有しておりしかも消
費電力は極めて小さい。
その可視光線スペクトルにピーク値を有する蛍光灯照明
がなされる屋内環境で゛も、カメラ12への入力に赤外
線フィルタ12at使用することによってS/N比を改
善し、その干渉を最小限に押さえることができる。平面
状投射ビームのデユーティ−サイクルを下げることもま
た効率改善に役立つ。
がなされる屋内環境で゛も、カメラ12への入力に赤外
線フィルタ12at使用することによってS/N比を改
善し、その干渉を最小限に押さえることができる。平面
状投射ビームのデユーティ−サイクルを下げることもま
た効率改善に役立つ。
すなわち画像露出に関し、光源は数ミリ秒間付勢される
だけで、その後はエネルギ節約のなめに消勢されること
になる。たとえば、もし運搬装置が毎秒1メートルで移
動していたとすれば、移動ロボットは人間にとってかな
り高速に移動していることになるが、100ミリ秒ごと
に1回のフラッシュによって、10センチメートルの床
上移動ごとに1個の画像が得られる。家具などの普通の
大きさの障害物は、移動の増分より大きいので、この画
像露出は通常の大きさの障害物を回避するには十分のも
のとなる。
だけで、その後はエネルギ節約のなめに消勢されること
になる。たとえば、もし運搬装置が毎秒1メートルで移
動していたとすれば、移動ロボットは人間にとってかな
り高速に移動していることになるが、100ミリ秒ごと
に1回のフラッシュによって、10センチメートルの床
上移動ごとに1個の画像が得られる。家具などの普通の
大きさの障害物は、移動の増分より大きいので、この画
像露出は通常の大きさの障害物を回避するには十分のも
のとなる。
エネルギを節約しなからS/N比を向上させる別の技法
は、フラッシュとノンフラッシュを急速に繰り返して2
種の画像を撮り、フラッシュ時の画像とノンフラッシュ
時の画像の各輝度をピクセルバイピクセル基準で減算す
ることである。この技法は、画像原算法として知られる
ものであり、構造化ビームパターンが強調される結果を
もたらす6 ナイフェツジ開口部のような平面状出力ビーム形成装置
を有するストロボ光源は、構造化ビーム投射器として使
用できる。標準のストロボフラッシュの持続時間はデユ
ーティ−サイクルが低いので、エネルギ効率が高い。
は、フラッシュとノンフラッシュを急速に繰り返して2
種の画像を撮り、フラッシュ時の画像とノンフラッシュ
時の画像の各輝度をピクセルバイピクセル基準で減算す
ることである。この技法は、画像原算法として知られる
ものであり、構造化ビームパターンが強調される結果を
もたらす6 ナイフェツジ開口部のような平面状出力ビーム形成装置
を有するストロボ光源は、構造化ビーム投射器として使
用できる。標準のストロボフラッシュの持続時間はデユ
ーティ−サイクルが低いので、エネルギ効率が高い。
もしクセノンストロボ光源を使用するときは、人間に対
する悪影響を減少させるために赤外線フィルタを使用す
ることが望ましい。
する悪影響を減少させるために赤外線フィルタを使用す
ることが望ましい。
この発明の実施例として、・・図2a及び2bにビーム
投射器が図示されており、図1aのビーム投射器14は
、円筒状反射器28aと円筒状非球面レンズ28bとの
間に細長いおおむね円筒状のクセノンフラッシュチュー
ブ28を有している。レンズ28bは約0.5インチの
焦点距離を有しフラッシュチューブ28からの直接及び
反射出力の双方を第二の円筒状非球面レンズ28cに収
束させるように働く、フラッシュチューブ28は、その
直接及び反射の出力が揃ってレンズ28bに入るように
円筒状反射器28aの焦点に配置される0反射器28a
は、このようにフラッシュチューブの背面から放射され
る光を集めて、チューブの前方に直接放射される光と同
じ方向に戻すことによって、光学装置のエネルギ効率を
向上させている。レンズ28a及び28cはガラスやプ
ラスチックのフレネルレンズを用いて、その重量と寸法
を小さくし、球面収差を劣化させることなく焦点距離を
短くすることができる。短焦点距離は広い角度から光を
集めるので、放射損失を少なくしている0円筒状レンズ
28cは、約0.5インチの焦点距離を有・し、放射を
視準し平面状の放射出力を作る動きをする。前述のよう
に、バンドパルフィルタ28dは、700〜11000
nのような望ましい範囲の波長以外のほとんどすべての
波長を取り除くためにある。
投射器が図示されており、図1aのビーム投射器14は
、円筒状反射器28aと円筒状非球面レンズ28bとの
間に細長いおおむね円筒状のクセノンフラッシュチュー
ブ28を有している。レンズ28bは約0.5インチの
焦点距離を有しフラッシュチューブ28からの直接及び
反射出力の双方を第二の円筒状非球面レンズ28cに収
束させるように働く、フラッシュチューブ28は、その
直接及び反射の出力が揃ってレンズ28bに入るように
円筒状反射器28aの焦点に配置される0反射器28a
は、このようにフラッシュチューブの背面から放射され
る光を集めて、チューブの前方に直接放射される光と同
じ方向に戻すことによって、光学装置のエネルギ効率を
向上させている。レンズ28a及び28cはガラスやプ
ラスチックのフレネルレンズを用いて、その重量と寸法
を小さくし、球面収差を劣化させることなく焦点距離を
短くすることができる。短焦点距離は広い角度から光を
集めるので、放射損失を少なくしている0円筒状レンズ
28cは、約0.5インチの焦点距離を有・し、放射を
視準し平面状の放射出力を作る動きをする。前述のよう
に、バンドパルフィルタ28dは、700〜11000
nのような望ましい範囲の波長以外のほとんどすべての
波長を取り除くためにある。
第2cに示すように、レンズ28bおよび28cはフラ
ッシュチューブ28からの放射ビームを、視準するスリ
ット開口部28e及び28fに交換できる。
ッシュチューブ28からの放射ビームを、視準するスリ
ット開口部28e及び28fに交換できる。
この配列はエネルギーがむだになるが、設計が容易で放
射の平行化にレンズを使用する方式よりも、設計が容易
であり費用も少ない。
射の平行化にレンズを使用する方式よりも、設計が容易
であり費用も少ない。
−mに、投射された平面状のビームすなわち縞状の放射
の幅は、ロボットの前方進路にまたがるのに十分に広い
が、同時に単純すぎて解釈が不明瞭になる。こうして、
数本の縞が連続してフラッシュされても、−本の放射縞
だけが1回の画像捕捉に使用される。たとえば、交互に
投射され、連続して見える2本の水平放射組は、はぼ、
足首のレベルと椅子のシートベルトのレベルを照射する
ので、屋内での環境内の低い障害物と中間の高さの障害
物を検知するために便利であると思われる。
の幅は、ロボットの前方進路にまたがるのに十分に広い
が、同時に単純すぎて解釈が不明瞭になる。こうして、
数本の縞が連続してフラッシュされても、−本の放射縞
だけが1回の画像捕捉に使用される。たとえば、交互に
投射され、連続して見える2本の水平放射組は、はぼ、
足首のレベルと椅子のシートベルトのレベルを照射する
ので、屋内での環境内の低い障害物と中間の高さの障害
物を検知するために便利であると思われる。
もし、これらの高さに放射縞を反射する障害物がなけれ
ば、カメラ12から見える画像はほとんど空白である。
ば、カメラ12から見える画像はほとんど空白である。
こうして、きわめて単純な「無画像」状態が、特別に信
号処理を行わずに直ちに検出され、ロボットが最高速度
で前進することができる。
号処理を行わずに直ちに検出され、ロボットが最高速度
で前進することができる。
この発明の現在推奨される実施例では、ピクセル位置と
環境位置とに関係する三角測量幾何学処理が完了したの
ちに、構造化ビーム投射器14及び16並びにカメラ1
2は、ロボット12の本体にしっかりと固定される。し
かしながら、それらの関係位置と方向が変えられる可動
式カメラ又は可動式ビーム投射器の採用も可能である。
環境位置とに関係する三角測量幾何学処理が完了したの
ちに、構造化ビーム投射器14及び16並びにカメラ1
2は、ロボット12の本体にしっかりと固定される。し
かしながら、それらの関係位置と方向が変えられる可動
式カメラ又は可動式ビーム投射器の採用も可能である。
この場合には、位置の変更を計算するために一層複雑な
画像処理が必要になる。ビーム投射器を1個だけ使用す
ることもこの発明の範囲内である。
画像処理が必要になる。ビーム投射器を1個だけ使用す
ることもこの発明の範囲内である。
この発明の見地によれば、2〜10フイートの距M範囲
にある近接目漂は構造化放射パターン、できれば放射の
縞、で照射される。CCDカメラ12のようなイメージ
センサ−に反射している構造化放射の画像は、ロボット
10及び床面26を基準とする距離、方位及び高低の幾
何学位置を判定するために解析される。光線の構成パタ
ーンは方位に関して、透き間を残さずに約90度をカバ
ーしている。
にある近接目漂は構造化放射パターン、できれば放射の
縞、で照射される。CCDカメラ12のようなイメージ
センサ−に反射している構造化放射の画像は、ロボット
10及び床面26を基準とする距離、方位及び高低の幾
何学位置を判定するために解析される。光線の構成パタ
ーンは方位に関して、透き間を残さずに約90度をカバ
ーしている。
約90度の構造化パターンにまたがって、周辺部分の照
度は、中心部照度の50%以上が望ましい、パターン境
界に沿った照度のちらつきは通常25%の公差であり、
そのかぎりでは、輝度のルックアップテーブルによって
補償されることになっている。
度は、中心部照度の50%以上が望ましい、パターン境
界に沿った照度のちらつきは通常25%の公差であり、
そのかぎりでは、輝度のルックアップテーブルによって
補償されることになっている。
ビームプロフィルの断面は、10フイートの距離にある
垂直の照射面上での2インチの離隔が、照度において
100%から0%に降下するような鋭さが望ましい。こ
の照度の変化は距離に比例して減少し、2.5フイート
の距離では172インチとなる。
垂直の照射面上での2インチの離隔が、照度において
100%から0%に降下するような鋭さが望ましい。こ
の照度の変化は距離に比例して減少し、2.5フイート
の距離では172インチとなる。
放射ビームの厚さは、完全に視準された場合に、10フ
イでトで4インチが望ましい0発散のある場合には、ビ
ームの開きは2度以内でなければならない。
イでトで4インチが望ましい0発散のある場合には、ビ
ームの開きは2度以内でなければならない。
ロボット10が公共の場所で作動するときには、光線が
人間に見えないことが望ましい、また、現在ではシリコ
ンダイオードのCCDカメラ12が望ましいので、次は
カメラ12感度の向上ということになる。700〜10
00nmの波長範囲はこれらの目標を達成している。光
源のフィルタ又はカメラ12のフィルタは、S/N比を
周囲光以上にしている。
人間に見えないことが望ましい、また、現在ではシリコ
ンダイオードのCCDカメラ12が望ましいので、次は
カメラ12感度の向上ということになる。700〜10
00nmの波長範囲はこれらの目標を達成している。光
源のフィルタ又はカメラ12のフィルタは、S/N比を
周囲光以上にしている。
もし、ビーム投射器14および16が700〜1000
niの範囲の狭いスペクトルを有しているならば、フィ
ルタはカメラ12だけにあればよい、このフィルタは光
源のスペクトルに整合しているものとする。
niの範囲の狭いスペクトルを有しているならば、フィ
ルタはカメラ12だけにあればよい、このフィルタは光
源のスペクトルに整合しているものとする。
被照射領域におけるCCDカメラ12の位置で測定した
輝度は、2〜10フイートの距離でフィルタを通した場
合に、床面から5フイートの高さにある100ワツトの
白熱電球光源からの周囲照明(それが作業場の明るさに
相当する)の2〜5倍になる。
輝度は、2〜10フイートの距離でフィルタを通した場
合に、床面から5フイートの高さにある100ワツトの
白熱電球光源からの周囲照明(それが作業場の明るさに
相当する)の2〜5倍になる。
標準のCCDカメラの画像捕捉における最大有効パルス
放射や持続時間は、33ミリ秒である1ミリ秒程度の短
い持続時間は、カメラ12が電子シャッタを備えている
ときには採用できる。
放射や持続時間は、33ミリ秒である1ミリ秒程度の短
い持続時間は、カメラ12が電子シャッタを備えている
ときには採用できる。
ビーム投射器のパルス繰り返し率は毎秒2回のフラッシ
ュがよく、近傍の諸物体についての詳細な情報を集める
には、毎秒10以上に上げたほうがよい、この場合、物
体までの距離がより近くなるので繰り返し率を高くする
とフラッシュの出力が低くてもよくなる。
ュがよく、近傍の諸物体についての詳細な情報を集める
には、毎秒10以上に上げたほうがよい、この場合、物
体までの距離がより近くなるので繰り返し率を高くする
とフラッシュの出力が低くてもよくなる。
通常、最大出力のためには、毎秒4回以下の繰り返し率
であることを必要とする。前述のように、投射器14及
び16のフラッシュ率の制御は、画像処理装置18によ
って達成されることが望ましい。
であることを必要とする。前述のように、投射器14及
び16のフラッシュ率の制御は、画像処理装置18によ
って達成されることが望ましい。
この発明によれば、画像処理装置18及び航法制御処理
装置20によって行われる画像処理は、通常下記(a)
〜(d)のステップ又は計算を含む。
装置20によって行われる画像処理は、通常下記(a)
〜(d)のステップ又は計算を含む。
(a)画像の中に迅速に光の縞の画像を配置する。
(b)配置された縞の画像からの距離と方向を推論する
。
。
(C)これらの物体の幾何学的マツプ表示を記憶する。
(d)航法計算法によってマツプ情報へのアクセスとそ
の処理を行い、障害物の回避又は基準ランドマークへの
航法を生じる制御信号を発生する。
の処理を行い、障害物の回避又は基準ランドマークへの
航法を生じる制御信号を発生する。
最初のステップ(a)は、標準的なグレイスゲールカメ
ラの画像を2進画像に減力する画像処理ステップを含む
、もし構造化ビームが周囲照度に打ち勝つのに十分に明
るければ、画像の輝度は域値を越えることがあり得る。
ラの画像を2進画像に減力する画像処理ステップを含む
、もし構造化ビームが周囲照度に打ち勝つのに十分に明
るければ、画像の輝度は域値を越えることがあり得る。
一般には、構造化ビームが、前記の画像減算技法が採用
されるがもじれない場合の、すべての周囲放射に打ち勝
つのに十分に明るくはない、このグレイスゲール画像を
2進画像に減算するステップの結果は、視界の画像内の
構造化放射組に対する後続のサーチを軽減して、あまり
複雑でない存不存検知技法に簡易化する。
されるがもじれない場合の、すべての周囲放射に打ち勝
つのに十分に明るくはない、このグレイスゲール画像を
2進画像に減算するステップの結果は、視界の画像内の
構造化放射組に対する後続のサーチを軽減して、あまり
複雑でない存不存検知技法に簡易化する。
最初のステップ(a)はサーチの期間中に画像について
寸法の段階又は増分を連続的に細分するサーチ計算法の
使用を採用する別の画像処理ステップを含む、すなわち
、それは迅速に粗い分解度で画像を走査し、しきい値を
越えたピクセルの検知に出会うと、より精細な分解度で
サーチを行う、これは2進サーチの1形式である。
寸法の段階又は増分を連続的に細分するサーチ計算法の
使用を採用する別の画像処理ステップを含む、すなわち
、それは迅速に粗い分解度で画像を走査し、しきい値を
越えたピクセルの検知に出会うと、より精細な分解度で
サーチを行う、これは2進サーチの1形式である。
画像位置からの環境内での位置を推論する上記ステップ
(b)は、カメラ12と投射器14及び16の取付部固
定を行う、特定の投射語出力に対する画像内の特定のピ
クセルの照度は、構造化放射を反射する物体の環境内で
の独特の位置を意味する。位置に関するこれらの特定の
ピクセルは、リアルタイム作動を強めるためにルックア
ップテーブル18F及び18G内で予測計算されて記憶
されるが又は被照射ピクセルが検知されたときに計算さ
れることになる。各ピクセルに関する距離と方位の別の
奨められる計算方法は、以下に詳しく説明される。
(b)は、カメラ12と投射器14及び16の取付部固
定を行う、特定の投射語出力に対する画像内の特定のピ
クセルの照度は、構造化放射を反射する物体の環境内で
の独特の位置を意味する。位置に関するこれらの特定の
ピクセルは、リアルタイム作動を強めるためにルックア
ップテーブル18F及び18G内で予測計算されて記憶
されるが又は被照射ピクセルが検知されたときに計算さ
れることになる。各ピクセルに関する距離と方位の別の
奨められる計算方法は、以下に詳しく説明される。
ステップ(C)には、環境の幾何学表示の中に、環境に
対するロボットの相対運動を含めて判定された個々の距
離及び方向を統合することが含まれる。採用する技法要
件は、二次元座標として床26を表示し、検知された物
体により占有されたグリッドセルをマークするか又は指
定を行って、1以上のグリッドセル内の決められた位置
に、検知された物体の残存に基づく視覚測定の信頼性を
割り当てることである0図6はV軸の方向にロボットが
移動しているマツプを図解する。ロボット10の航法制
御処理装置20に記憶されたマツプは1インチ程度の小
さなものから足程度の大きなものまでセルの中に分割さ
れる0画像の解析が特定の(U、V)位置にある物体の
検知を示すとき、信頼性レベルC(u、v)がその位置
に割り当てられる。この信頼性レベルは連続的il察が
同じ位置に物体が存在することを検知し続けるときに増
大する。信頼性レベルのレンジの値は0.0から1.0
である0図6は、次のように物体が検知されており、信
頼性レベルが占有されたセルに対して割り当てられたこ
とを図示する。
対するロボットの相対運動を含めて判定された個々の距
離及び方向を統合することが含まれる。採用する技法要
件は、二次元座標として床26を表示し、検知された物
体により占有されたグリッドセルをマークするか又は指
定を行って、1以上のグリッドセル内の決められた位置
に、検知された物体の残存に基づく視覚測定の信頼性を
割り当てることである0図6はV軸の方向にロボットが
移動しているマツプを図解する。ロボット10の航法制
御処理装置20に記憶されたマツプは1インチ程度の小
さなものから足程度の大きなものまでセルの中に分割さ
れる0画像の解析が特定の(U、V)位置にある物体の
検知を示すとき、信頼性レベルC(u、v)がその位置
に割り当てられる。この信頼性レベルは連続的il察が
同じ位置に物体が存在することを検知し続けるときに増
大する。信頼性レベルのレンジの値は0.0から1.0
である0図6は、次のように物体が検知されており、信
頼性レベルが占有されたセルに対して割り当てられたこ
とを図示する。
C(3,4)−,2,C(3,5)−,5,C(3,6
)−,3,C(4,5)−,8゜C(3,7)−,3,
C(4,6)協、8.C(5,5)−,7別の幾何学的
表示は、相接する検知を単一物体を考え、取り巻く円の
位置と半径を航法の目的のための物体のパラメータとし
て定義することがある1図6の円はこれを示しており、
円は中心C(3,5)として定義されるパラメータ及び
グリッド2個に等しい半径を有している。
)−,3,C(4,5)−,8゜C(3,7)−,3,
C(4,6)協、8.C(5,5)−,7別の幾何学的
表示は、相接する検知を単一物体を考え、取り巻く円の
位置と半径を航法の目的のための物体のパラメータとし
て定義することがある1図6の円はこれを示しており、
円は中心C(3,5)として定義されるパラメータ及び
グリッド2個に等しい半径を有している。
マツプを表示するための座標の最良の選択はマツプが使
用される方法の一部に依存している。
用される方法の一部に依存している。
上記ステップ(C)における構造化ビーム像からの物体
の初期位置の推論により極座標が生じる。ソナーのよう
な他のセンサーもよたRとθの極座標を生じる。信頼性
レベルを発生させるためには、X−Y座標に変換する前
に、同じ極座標内でそのような複式検知データを組合わ
せることには利点がある。
の初期位置の推論により極座標が生じる。ソナーのよう
な他のセンサーもよたRとθの極座標を生じる。信頼性
レベルを発生させるためには、X−Y座標に変換する前
に、同じ極座標内でそのような複式検知データを組合わ
せることには利点がある。
どの座標系をマツプのために選択しても、物体の位置の
2諸元は構造化ビームを用いて得られる。
2諸元は構造化ビームを用いて得られる。
第三の北元として高低があり、それらは物体を切断する
ビームの面の高低から暗黙のうちに入手できる。背の高
い物体と低い物体とを識別するのに有効である。しかし
、ロボットの物理的輪郭はほとんど垂直なので、どの高
さにある物体もロボットの移動の障害と考えられる。し
たがって二次元マツプは一般仁航法目的のために十分で
ある。
ビームの面の高低から暗黙のうちに入手できる。背の高
い物体と低い物体とを識別するのに有効である。しかし
、ロボットの物理的輪郭はほとんど垂直なので、どの高
さにある物体もロボットの移動の障害と考えられる。し
たがって二次元マツプは一般仁航法目的のために十分で
ある。
よく知られた経路立案技法が使用される。たとえば、も
し指定された目標への経路が、ある障害物によって妨害
されるならば、対応戦略は、現在位置と所望の目標点位
置との間の最短経路である空間を通って、代わりの経路
を発見することである。
し指定された目標への経路が、ある障害物によって妨害
されるならば、対応戦略は、現在位置と所望の目標点位
置との間の最短経路である空間を通って、代わりの経路
を発見することである。
図3a及び3bを参照すれば、障害物回避セルは、ロボ
ットから物体までの距離(R)と方向角(θ)に関連す
る。
ットから物体までの距離(R)と方向角(θ)に関連す
る。
各Rとθは、オフラインで事前に計算されロボット内に
永久に収納され、マイクロコンピュータ18Dによって
アクセスされるROMに読み込まれる6代わりに、ロボ
ット10が先に付勢され、ルックアップテーブルは、環
境の視界に関連した個々のカメラピクセルに対するRと
θを決定する方程式から、画像処理装置18によってv
A集される。
永久に収納され、マイクロコンピュータ18Dによって
アクセスされるROMに読み込まれる6代わりに、ロボ
ット10が先に付勢され、ルックアップテーブルは、環
境の視界に関連した個々のカメラピクセルに対するRと
θを決定する方程式から、画像処理装置18によってv
A集される。
計算中、物体検知計算法は物体からの反射の対してカメ
ラ12の視界の画像をサーチする。予定しきい値を十分
に越える明るさをもつR及びθのピクセルは、図6に図
解されるように、物体の場所について検知され、ロボッ
トの環境のマツプを規定するデータ構成内に記憶される
。
ラ12の視界の画像をサーチする。予定しきい値を十分
に越える明るさをもつR及びθのピクセルは、図6に図
解されるように、物体の場所について検知され、ロボッ
トの環境のマツプを規定するデータ構成内に記憶される
。
現在推奨されるこの発明の実施例において、画像は、5
12x48Gピクセルからなり、全部で約250.00
0ピクセルとなる0例をあげれば、マイクロコンピュー
タがビデオメモリ18Aから1ピクセルの値を読むため
に約33マイクロ秒を必要とする。
12x48Gピクセルからなり、全部で約250.00
0ピクセルとなる0例をあげれば、マイクロコンピュー
タがビデオメモリ18Aから1ピクセルの値を読むため
に約33マイクロ秒を必要とする。
すべてのピクセルを読むには8秒以上もかかる。
こうして、リアルタイムで計算するためには各画像内の
全部のピクセルのサーチを行わなず、ありそうな1個の
物体を支持するかもしれないしきい値を越える1個のピ
クセルのみについてサーチする。前述のように、粗い分
解能のサーチは、物体がまだ遠くにあるときの視界の上
方の領域で行われ、精細な分解能のサーチは、物体がロ
ボット10の近くに見えるときの視界の下方の領域で行
われる。
全部のピクセルのサーチを行わなず、ありそうな1個の
物体を支持するかもしれないしきい値を越える1個のピ
クセルのみについてサーチする。前述のように、粗い分
解能のサーチは、物体がまだ遠くにあるときの視界の上
方の領域で行われ、精細な分解能のサーチは、物体がロ
ボット10の近くに見えるときの視界の下方の領域で行
われる。
円筒状座標系は、図3bに示すように、座標の原点をロ
ボットの中心とし、物体のロボットを基準とした位置を
10ツトするために使用できる。
ボットの中心とし、物体のロボットを基準とした位置を
10ツトするために使用できる。
Rはロボットの中心から物体までのの距離であり、θは
物体への角度である。ゼロ度のθはロボットの中心を通
り前方に伸びる軸を基準にしている。
物体への角度である。ゼロ度のθはロボットの中心を通
り前方に伸びる軸を基準にしている。
中間X、Y直角座標系は、Rとθを得るための計算に使
用される。
用される。
この中間座標系の原点は、カメラセンサの直下の床にあ
る点であり、Yは垂直軸、Xはロボットの前方に真っす
ぐに伸びる水平軸である。
る点であり、Yは垂直軸、Xはロボットの前方に真っす
ぐに伸びる水平軸である。
解析の第一段階はビーム平面と複合の水平ピクセル面の
中心がX−Y面と交差する点のX、Y座標を決定するこ
とである。これは、図3aに、それぞれ上部及び下部の
ビーム平面を示すラベルの付いた線14a及び16aに
沿ったA及びBのような点として現れる。
中心がX−Y面と交差する点のX、Y座標を決定するこ
とである。これは、図3aに、それぞれ上部及び下部の
ビーム平面を示すラベルの付いた線14a及び16aに
沿ったA及びBのような点として現れる。
これらの交差点は、関連のある双方の線に対する方程式
を決定し、それらを同時に解くことによって発見される
。線についての基本の方程式は、y=m−x+bここで
・は乗算を示す。
を決定し、それらを同時に解くことによって発見される
。線についての基本の方程式は、y=m−x+bここで
・は乗算を示す。
下部投射器16の、床からの高さがHLであることが知
られている。上部投射器14の高さはHuである。カメ
ラの高さはHLであり、個々の水平ピクセル面に対する
スロープはCAHSによって点が付けられている。
られている。上部投射器14の高さはHuである。カメ
ラの高さはHLであり、個々の水平ピクセル面に対する
スロープはCAHSによって点が付けられている。
下部投射器16についての方程式は、
3F=HL (1)
カメラ12についての方程式は y =CAH3* x + HC(2)これらの方
程式を同時に解くと x = (−HL+HC) /(−CAHS)
(3)y−CAHS* (x+HC)
(4)となる。
カメラ12についての方程式は y =CAH3* x + HC(2)これらの方
程式を同時に解くと x = (−HL+HC) /(−CAHS)
(3)y−CAHS* (x+HC)
(4)となる。
上記の方程式は、各C八H3の値、すなわち各画像の個
々の水平面ピクセルのスロープ、について解かれる。ま
ず、カメラ12の中心線のスロープ(ピクセル239゜
5)が最初に決められ、次にピクセル0〜239、及び
240〜479が発見される。
々の水平面ピクセルのスロープ、について解かれる。ま
ず、カメラ12の中心線のスロープ(ピクセル239゜
5)が最初に決められ、次にピクセル0〜239、及び
240〜479が発見される。
カメ、712の中心線のスロープは次の通りである。
スローグー −HC/CAHD (5
>ここで、CAHDはカメラの中心線が床26を望む点
までX軸に沿った距離である。
>ここで、CAHDはカメラの中心線が床26を望む点
までX軸に沿った距離である。
各ピクセル光線のP目角は、
pH1−atan(−tlc/CAMD)+/−(at
an(i240m3.3/8.0) (6)ここで、l
は1〜240で変化する画像の中心からのピクセルの数
である0項3.3は、節で計ったセンサの高さの172
であり、項8,0は、關で計ったカメラレンズの焦点距
離である。もちろん、これらの項は、水平及び垂直のピ
クセルの数に加えられ、特定のカメラに特有のものであ
り、別のカメラが使用されるときは異なった値を持つか
もしれない。
an(i240m3.3/8.0) (6)ここで、l
は1〜240で変化する画像の中心からのピクセルの数
である0項3.3は、節で計ったセンサの高さの172
であり、項8,0は、關で計ったカメラレンズの焦点距
離である。もちろん、これらの項は、水平及び垂直のピ
クセルの数に加えられ、特定のカメラに特有のものであ
り、別のカメラが使用されるときは異なった値を持つか
もしれない。
各ピクセル平面についてのスロープは、CAH8=ta
n(pHl) (7)交
差点のX13’座標は各X+3’点からカメラセンサー
までの斜辺(h)がピタゴラス定理を用いて発見される
。すなわち h= (X”2+ (HC−Y) ) ・
(8)こ)で9**は指数関数計算を示す。
n(pHl) (7)交
差点のX13’座標は各X+3’点からカメラセンサー
までの斜辺(h)がピタゴラス定理を用いて発見される
。すなわち h= (X”2+ (HC−Y) ) ・
(8)こ)で9**は指数関数計算を示す。
カメラ12から障害物までの距離(h)及びロボットか
ら障害物までの床に沿っての距Ml(X)は、今はθ=
0度においてロボット10の真っすぐ前にある物体に対
して既知のものである。
ら障害物までの床に沿っての距Ml(X)は、今はθ=
0度においてロボット10の真っすぐ前にある物体に対
して既知のものである。
次に、カメラ12と構造化ビームとの交差点は、ロボッ
ト10の真っすぐ前以外にある物体に対して発見される
。中心線から(そこでピクセルとビーム平面が交差する
)、左と右とに配置された各点までの水平距離はnx(
i)と名付けられる。ここで、iは中心から離れたピク
セルの数である。図3bの平面図に示すように、各交差
点までのスロープは次によって与えられる。
ト10の真っすぐ前以外にある物体に対して発見される
。中心線から(そこでピクセルとビーム平面が交差する
)、左と右とに配置された各点までの水平距離はnx(
i)と名付けられる。ここで、iは中心から離れたピク
セルの数である。図3bの平面図に示すように、各交差
点までのスロープは次によって与えられる。
スロープ= ((i/256)*4.4/8.0)
(9)ここで、lは中心線からのピクセルの
数(256*で) 、4.4は水平センサの寸法の1/
2 (m11) 8.0は焦点距離 前述のように、常数4.4はカメラの特有定数である。
(9)ここで、lは中心線からのピクセルの
数(256*で) 、4.4は水平センサの寸法の1/
2 (m11) 8.0は焦点距離 前述のように、常数4.4はカメラの特有定数である。
各ピクセルへのスロープはn x (i)で表される。
したがって、
nX(iコニ((i/256)*4.4/8.0)−h
(10)視界内の各ピク
セルについてのRとθは、次の方程式によって決定され
る。
(10)視界内の各ピク
セルについてのRとθは、次の方程式によって決定され
る。
θ=atan(NX(I)/ (X+オフセット>
(11)R=nx (i)/sin (θ
) (12)ここで、
オフセットはカメラ、12画像センサー平面からロボッ
トの中心までのX軸に沿っての距離である。前述のよう
に、各ピクセルに対するRとθは、計算され、ルックア
ップテーブルに記憶される。
(11)R=nx (i)/sin (θ
) (12)ここで、
オフセットはカメラ、12画像センサー平面からロボッ
トの中心までのX軸に沿っての距離である。前述のよう
に、各ピクセルに対するRとθは、計算され、ルックア
ップテーブルに記憶される。
図4及び5を参照すると、ここにはこの発明による構造
化ビーム視覚航法及び障害物回避システムを有するロボ
ットの別の実施例が示されている。
化ビーム視覚航法及び障害物回避システムを有するロボ
ットの別の実施例が示されている。
ロボット30は、上部投射器32、下部投射器34を含
む複数の構造化ビーム投射器、及び上部及び下部の投射
器の間に配置されたカメラ36を有する。ロボット30
は、さらに、カメラの反対側でそれより高い位置に配置
される1組の構造化ビーム投射器38及び40からなる
。
む複数の構造化ビーム投射器、及び上部及び下部の投射
器の間に配置されたカメラ36を有する。ロボット30
は、さらに、カメラの反対側でそれより高い位置に配置
される1組の構造化ビーム投射器38及び40からなる
。
投射器38及び40は投射器34からの水平に投射器さ
れたと、−ムに垂直に投射される平面のビームバタンを
用意する。上部投射器32からの平面状ビームパターン
は、ロボット30の正面の位置にある床42と交差する
ように斜め下方に投射される。ロボット30の他の内部
相成品は、図1に説明される通りである。すなわち、ロ
ボット30は、画像処理装:¥t、航法制御処理装置、
及び駆動操向制御装置からなっている。駆動操向車輪4
4は、ロボットが床42の上を走行するなめに用意され
ている。
れたと、−ムに垂直に投射される平面のビームバタンを
用意する。上部投射器32からの平面状ビームパターン
は、ロボット30の正面の位置にある床42と交差する
ように斜め下方に投射される。ロボット30の他の内部
相成品は、図1に説明される通りである。すなわち、ロ
ボット30は、画像処理装:¥t、航法制御処理装置、
及び駆動操向制御装置からなっている。駆動操向車輪4
4は、ロボットが床42の上を走行するなめに用意され
ている。
図4及び5に示す構造化ビーム平面38a及び40aは
、前方に投射されて、環境のすべてにわたってロボット
の前方進路をバウンドして2個の垂直面内にある物体と
交差する。図7の視界の説明に見られるように、垂直線
38B及び40bは、カメラから見られるとき、ビーム
平面が連続するレンジにおける垂直の物体との連続的交
差についての(1oci)を示している。このように、
距離、方向、及び高低は、構造化ビームの水平面につい
て以前に説明されたこれらのものの計算法と全く類似の
計算法を用いて、ピクセル位置から測定される。
、前方に投射されて、環境のすべてにわたってロボット
の前方進路をバウンドして2個の垂直面内にある物体と
交差する。図7の視界の説明に見られるように、垂直線
38B及び40bは、カメラから見られるとき、ビーム
平面が連続するレンジにおける垂直の物体との連続的交
差についての(1oci)を示している。このように、
距離、方向、及び高低は、構造化ビームの水平面につい
て以前に説明されたこれらのものの計算法と全く類似の
計算法を用いて、ピクセル位置から測定される。
これらは技術的に妥当であることが明白である。
図4及び5の斜の構造化ビーム平面32aのカメラ視線
が、床に近接した障害物その他の構造体がない場合に、
床面からおおむね均−且つ水平に(32b)反射される
ことが、図8においても見られる1画像縞は、床42が
平坦であるかぎり、ロボットの動きにかかわらず、スク
リーン上の固定位置に止まる。この均一性は、床に孔が
あったり、床に近接した障害物があったりするような凹
凸によって断絶される。
が、床に近接した障害物その他の構造体がない場合に、
床面からおおむね均−且つ水平に(32b)反射される
ことが、図8においても見られる1画像縞は、床42が
平坦であるかぎり、ロボットの動きにかかわらず、スク
リーン上の固定位置に止まる。この均一性は、床に孔が
あったり、床に近接した障害物があったりするような凹
凸によって断絶される。
凹みは断絶の下に置かれた輝点32Cを有する縞32b
の中に断絶を持つ画像を発生する。
の中に断絶を持つ画像を発生する。
床に横たわっている障害物は、その断絶の上にある輝点
32dを有する縞の中にIIR絶を生みだす。
32dを有する縞の中にIIR絶を生みだす。
明らかに、縞32bの上下にある輝点32c及び32d
の置換の量は、距離及び高低の尺度であり、断絶の位置
は方向の尺度であり、これらは、構造化ビーム水平面に
ついて以前に説明されたこれらのものの計算法と全く類
似の計算法を用いられる。
の置換の量は、距離及び高低の尺度であり、断絶の位置
は方向の尺度であり、これらは、構造化ビーム水平面に
ついて以前に説明されたこれらのものの計算法と全く類
似の計算法を用いられる。
これらは技術的に妥当であることが明白である。
図4及び5に示すように、構造化ビームの複合平面が使
用されるときは、それらのタイミングは、どちらのビー
ムが、どの特定のピクセル位置と関連させられるべきか
を解釈する際に、曖昧さを生じないようにするために、
非同期でなければならない、また、別々のルックアップ
テーブルは、各構造化ビームの光源に関連させられるか
もしれない、18F及び18Gのようなこれらのルック
アップテーブルは、プログラムされたROM内に容易に
記憶される。
用されるときは、それらのタイミングは、どちらのビー
ムが、どの特定のピクセル位置と関連させられるべきか
を解釈する際に、曖昧さを生じないようにするために、
非同期でなければならない、また、別々のルックアップ
テーブルは、各構造化ビームの光源に関連させられるか
もしれない、18F及び18Gのようなこれらのルック
アップテーブルは、プログラムされたROM内に容易に
記憶される。
図4及び5の実施例については、ピクセル位置の関数と
してのR及びθの決定は、図1のロボットを基準として
前述された方法とほとんど同一の方法で達成される。前
方監視視界を有するカメラの高さと位置のため、及び上
部ビーム投射器32のスロープと相対位置のために適当
な調節が加えられている。
してのR及びθの決定は、図1のロボットを基準として
前述された方法とほとんど同一の方法で達成される。前
方監視視界を有するカメラの高さと位置のため、及び上
部ビーム投射器32のスロープと相対位置のために適当
な調節が加えられている。
この発明は、平面状ビーム投射器の変形の1及び上記に
説明された以外のセンサやカメラによって実施されるこ
とも可能である。たとえば、この発明は、ビジコンカメ
ラで受信される可視光線の構造化ビームとともに実施し
てもよい。また、画@処理計算法の正確な性質は改変し
てほとんど同一の結果が得られるかもしれない、現行の
通常の技術をもってすれば、前述の発明の実施例につい
てのいくつかの改変は容易に得られるものである。
説明された以外のセンサやカメラによって実施されるこ
とも可能である。たとえば、この発明は、ビジコンカメ
ラで受信される可視光線の構造化ビームとともに実施し
てもよい。また、画@処理計算法の正確な性質は改変し
てほとんど同一の結果が得られるかもしれない、現行の
通常の技術をもってすれば、前述の発明の実施例につい
てのいくつかの改変は容易に得られるものである。
したがって、この発明は本書に開陳された実施例にのみ
限定されるべきではなく、上記の請求項の示す範囲によ
ってのみ限定されるべきである。
限定されるべきではなく、上記の請求項の示す範囲によ
ってのみ限定されるべきである。
この発明の見地は、本書に記載される関連図面によって
読みとられる後出の発明の詳細な説明の中で一層明確に
される。 図1aは、この発明の具体例に従って構成され操巾され
る、下向きの視界を有し、前方に投射される放射光の構
造化ビーム2個の上に配置されるカメラを備えている自
走ロボットを示す。 図1bは、図1aの画像処理装置18のブロック図であ
る。 図2.a、2bは、それぞれ、投射器がフラッシュラン
プ、円筒状ミラー、及び複数の円筒状レンズエレメント
からなる、構造化ビーム投射器の具体例1の側面図及び
平面図を示す図2Cは、投射器がフラッシュランプ、円
筒状ミラー、及び複数の円筒状レンズエレメントからな
る、構造化ビーム投射器の具体例2の側面図を示す0図
3a、3bは、それぞれ、図1のロボットにより投射さ
れる構造化ビームパターンの側面図及び平面図を示す。 図4は、ロボットが、カメラの上に配置された上下指向
の構造化ビーム投射器を有し、なおそれが、より低い、
水平ビーム投射器に対して実質的に直角に指向される平
面ビームを投射するための1組のビーム投射器からなる
この発明の別の具体例による移動ロボットの側面図を示
す。 図5は、図4のロボットの正面図を示す。 図6は、図4及び5のロボットの処理された視界を説明
する図である。 図7は、連続的により遠くの垂直物体からの垂直に指向
された構造化ビーム投射器の連続的な反射の説明図であ
る。 [図8は、反射が斜めに投射している構造化ビーム投射
器によるものである、ロボット環境における物体からの
反射の説明図である。 10・・・ロボット、12・・・カメラ、14.16・
・・投射器、18・・・画像処理装置、28・・・放射
光源7面の浄書1”1審に変更なし) 第1αヌ 手続h口正書(自発) 平成1年12月20日
読みとられる後出の発明の詳細な説明の中で一層明確に
される。 図1aは、この発明の具体例に従って構成され操巾され
る、下向きの視界を有し、前方に投射される放射光の構
造化ビーム2個の上に配置されるカメラを備えている自
走ロボットを示す。 図1bは、図1aの画像処理装置18のブロック図であ
る。 図2.a、2bは、それぞれ、投射器がフラッシュラン
プ、円筒状ミラー、及び複数の円筒状レンズエレメント
からなる、構造化ビーム投射器の具体例1の側面図及び
平面図を示す図2Cは、投射器がフラッシュランプ、円
筒状ミラー、及び複数の円筒状レンズエレメントからな
る、構造化ビーム投射器の具体例2の側面図を示す0図
3a、3bは、それぞれ、図1のロボットにより投射さ
れる構造化ビームパターンの側面図及び平面図を示す。 図4は、ロボットが、カメラの上に配置された上下指向
の構造化ビーム投射器を有し、なおそれが、より低い、
水平ビーム投射器に対して実質的に直角に指向される平
面ビームを投射するための1組のビーム投射器からなる
この発明の別の具体例による移動ロボットの側面図を示
す。 図5は、図4のロボットの正面図を示す。 図6は、図4及び5のロボットの処理された視界を説明
する図である。 図7は、連続的により遠くの垂直物体からの垂直に指向
された構造化ビーム投射器の連続的な反射の説明図であ
る。 [図8は、反射が斜めに投射している構造化ビーム投射
器によるものである、ロボット環境における物体からの
反射の説明図である。 10・・・ロボット、12・・・カメラ、14.16・
・・投射器、18・・・画像処理装置、28・・・放射
光源7面の浄書1”1審に変更なし) 第1αヌ 手続h口正書(自発) 平成1年12月20日
Claims (1)
- 【特許請求の範囲】 1、下記(1)〜(3)からなり、表面上を移動する運
搬装置に搭載される物体検知装置 (1)運搬装置の移動方法におおむね平面状の1つ以上
のビーム信号を送信する装置 (2)運搬装置の移動領域に配置された1つ以上の表面
から反射される平面状の放射ビームを検知する装置 (3)平面状の放射ビーム信号を反射する表面の距離及
び方向を、運搬装置を基準として、検知されたビーム信
号と関連づける装置 2、その表面への距離と方向の関数として運搬装置の航
法データを決定するための、前記の関連装置の出力に結
合された装置を含む、請求項1に記載の物体検知装置 3、送信のための前記の装置が、脈動する放射源からな
る、請求項1に記載の物体検知装置 4、前記の放射が、約700nmから約1000nmの
波長のレンジ内の出力波長を有する請求項3に記載の物
体検知装置 5、前記の検知装置が、視界の関連部分内に放射された
放射の量の関数である関連値を有する、前記の複数のピ
クセル(ピクチャ・エレメントの意、以下同じ)からな
る二次元の視界を発生するための装置を含む、請求項1
に記載の物体検知装置 6、前記の検知装置が、複数のピクセルからなる二次元
の視界を発生するCCD画像デバイスを含む、請求項4
に記載の物体検知装置 7、前記の関連装置が、視界内の各ピクセルに対する距
離及び方向を発生するための装置からなる、請求項5に
記載の検知装置 8、前記の関連装置が、さらに、視界内の各ピクセルに
対する距離及び方向を表現するデータを記憶するための
装置からなる、請求項7に記載の物体検知装置 9、下記(1)〜(6)からなり、支持表面上を移動す
る移動ロボットについての航法関連の情報を発生する方
法 (1)少なくとも1個の、構造化された、おおむね平面
状の放射ビームを、ロボットの所望の進路を含めたロボ
ットの前方の環境に投射し、その放射ビームが、環境内
に配置された表面上に縞状のパターンを形成することに
なるステップ (2)環境の二次元の画像を発生し、その画像が少なく
ともその環境内のいかなる表面から反射する縞状のパタ
ーンをも含めるものとなるステップ (3)その画像に縞状のパターンの画像を配置するステ
ップ (4)ロボットを基準にしたその表面の距離及び方向を
、縞状のパターン内の位置から推論するステップ (5)推論された表面位置の幾何学的マップを発生する
ステップ (6)障害物の回避、又は、基準ランドマークへの航法
をもたらす、ロボット動作制御信号を発生するためにマ
ップ情報を処理するステップ 10、発生のステップが、二次元配列の複数のピクセル
からなる画像を発生し、各個のピクセルが、画像の関連
部分内で反射された放射の量の関数である関連値を有し
ている、請求項9に記載の方法 11、位置ぎめのステップが、予定されたしきい値以上
の値を持つ、1つ以上のピクセルからなるピクセル配列
内における位置決定のステップを含む、請求項10に記
載の方法 12、推論のステップが、距離及び方向の複数のエント
リを有するデータ構成内のひとつのエントリにアクセス
するステップを含んでおり、各個のエントリがピクセル
のひとつに関連しており、アクセス中のエントリの位置
が所定のピクセル位置の関数となつている、請求項11
記載の方法 13、推論のステップが、各ピクセルの値を2進値に変
換するステップを含む、請求項11に記載の方法 14、位置ぎめのステップが、予測されたしきい値以上
の値を持つ、1つ以上のピクセルの最初の標定のため、
n個のピクセルを解析して画像の最初のサーチを行うこ
とにより達成され、ピクセルが標定されたのち、さらに
、n個より少ないm個のピクセルを解析して、その画像
をサーチすることによって達成される、請求項11記載
の方法 15、幾何学図形を発生するステップが下記(1)及び
(2)を含む、請求項9に記載の方法 (1)グリッドセルからなる2次元のグリッドのような
支持表面を表示するステップ (2)縞状のパターン反射面について、ロボットを基準
とする距離及び方向に関するグリッドセルを指定するス
テップ 16、さらに、下記(1)を含む、請求項15に記載の
方法 (1)指定された複数のセルに関して推論された距離及
び方向の持続性に基づいて指定されたグリッドセルに信
頼性係数を割り当てるステップ 17、さらに、下記(1)を含む、請求項16に記載の
方法 (1)1つ以上の指定されたグリッドセルを囲む半径を
決定するステップ 18、下記(1)〜(4)からなり、移動ロボットに結
合されるビジョンシステム (1)ロボットの移動方向に、おおむね平面状の1個以
上の構造化ビーム信号を送信するための装置 (2)ロボットが通過する領域内に配置された1つ以上
の表面から反射される平面状放射ビームを検知するため
の装置 (3)検知された放射ビームを、平面状ビームを反射す
る表面の、ロボットを基準とする距離及び方向に関連づ
けるための装置 (4)ロボット航法データを、その表面についての距離
及び方向の関数として決定するために、前記の関連装置
の出力に結合される装置 19、前記の送信装置が、フラッシュランプを含む、請
求項18に記載のビジョンシステム 20、前記の送信装置が、1つ以上の光発散ダイオード
を含む、請求項18に記載のビジョンシステム 21、前記の送信装置が、1つ以上の白熱電球を含む、
請求項18に記載のビジョンシステム 22、前記の送信装置が、1つ以上のレーザー装置を含
む、請求項18に記載のビジョンシステム 23、ビームが、ロボットが運動するおおむね平坦の表
面におおむね平行に送信される、請求項18に記載のビ
ジョンシステム 24、ビームが、ロボットが運動する、おおむね平坦の
表面に斜め下方に送信される請求項18に記載のビジョ
ンシステム 25、ビームが、ロボットが運動する、おおむね平坦の
表面におおむね垂直に送信される、請求項18に記載の
ビジョンシステム 26、前記の検知装置が、CCD画像装置を含む、請求
項18に記載のビジョンシステム 27、前記の検知装置が、ビジコン画像装置を含む、請
求項18に記載のビジョンシステム 28、前記のフラッシュランプが、細長い形状を有する
フラッシュランプであり、そこに前記の送信装置がさら
に下記(1)〜(3)と組み合わされている、請求項1
9に記載のビジョンシステム (1)前記のフラッシュランプにおおむね平行に配置さ
れたおおむね半円をなす円筒状の反射器装置 (2)ある焦点距離を有し、また前記のフラッシュラン
プ及び前記の反射器から発散する放射を収束するために
、前記のフラッシュランプにおおむね平行に配置されて
いる第一の円筒状レンズ装置 (3)前記のおおむね平面状の放射ビームを発生するた
めに、前記の第一の円筒状レンズ装置からの放射を視準
するため、ある焦点距離を有し、また前記の円筒状レン
ズ装置の焦点距離よりも大である距離に、前記の第一の
円筒状レンズ装置におおむね平行に配置される第二の円
筒状レンズ装置 29、前記のフラッシュランプがクセノン・フラッシュ
ランプからなる、請求項28に記載のビジョンシステム 30、前記の第一、及び第二の円筒状レンズ装置が、そ
れぞれ、約0.5インチの焦点距離を有する、請求項2
8に記載のビジョンシステム 31、前記の各円筒状レンズ装置が、フレネルレンズか
らなる、請求項28に記載のビジョンシステム 32、前記の円筒状反射器装置がある焦点距離を有して
おり、前記のフラッシュランプが、おおむね前記の円筒
状反射器装置の焦点距離に配置される、請求項28に記
載のビジョンシステム 33、さらに、前記の視準放射を受領するために配置さ
れた前記の光学フィルタ装置を含んでおり、当該光学フ
ィルタ装置が約700nm〜約1000nmの波長範囲
を通過させるものである、請求項28に記載のビジョン
システム 34、前記のフラッシュランプが細長い形状を有し、前
記の送信手段が、さらに下記(1)及び(2)と組合わ
される請求項19に記載のビジョンシステム (1)前記のフラッシュランプにおおむね平行に配置さ
れたおおむね半円をなす円筒状の反射器装置 (2)前記のフラッシュランプ及び前記の反射器から発
散する放射を、おおむね平面状の放射ビームに形成する
ために、前記のフラッシュランプにおおむね平行に配置
された1つ以上のスリット状の開口部
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US07/241,059 US4954962A (en) | 1988-09-06 | 1988-09-06 | Visual navigation and obstacle avoidance structured light system |
US229472 | 1988-09-06 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH02170205A true JPH02170205A (ja) | 1990-07-02 |
Family
ID=22909079
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP1229472A Pending JPH02170205A (ja) | 1988-09-06 | 1989-09-06 | 光線システムで構成する視覚航法及び障害物回避装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US4954962A (ja) |
EP (1) | EP0358628A3 (ja) |
JP (1) | JPH02170205A (ja) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006239844A (ja) * | 2005-03-04 | 2006-09-14 | Sony Corp | 障害物回避装置、障害物回避方法及び障害物回避プログラム並びに移動型ロボット装置 |
JP2006300927A (ja) * | 2005-04-23 | 2006-11-02 | Lg Electronics Inc | 走行ロボットの位置感知装置及びこれを備えたロボット掃除機 |
JP2010256179A (ja) * | 2009-04-24 | 2010-11-11 | Hokuyo Automatic Co | 測距方法及び車載測距装置 |
WO2011062094A1 (ja) * | 2009-11-20 | 2011-05-26 | 村田機械株式会社 | 自律移動体とその制御方法 |
JP2013174482A (ja) * | 2012-02-24 | 2013-09-05 | Nissan Motor Co Ltd | 距離計測装置 |
US8948956B2 (en) | 2009-11-20 | 2015-02-03 | Murata Machinery, Ltd. | Autonomous mobile body and control method of same |
US9224054B2 (en) | 2009-08-28 | 2015-12-29 | Indian Institute Of Science | Machine vision based obstacle avoidance system |
JP2016063769A (ja) * | 2014-09-24 | 2016-04-28 | 株式会社クボタ | 自動走行車両 |
KR20170020419A (ko) * | 2014-06-05 | 2017-02-22 | 소프트뱅크 로보틱스 유럽 | 평면들을 교차하여 장애물을 검출하는 장치 및 이러한 장치를 사용하는 검출 방법 |
JP2017518579A (ja) * | 2014-06-05 | 2017-07-06 | ソフトバンク・ロボティクス・ヨーロッパSoftbank Robotics Europe | 水平面による障害物検出装置およびこのような装置を実装する検出方法 |
JP2018142276A (ja) * | 2017-02-28 | 2018-09-13 | 株式会社イージスモスジャパン | 経路探索システム及び経路探索方法 |
JP2022505772A (ja) * | 2018-11-01 | 2022-01-14 | ウェイモ エルエルシー | 構造化光照明付き飛行時間型センサ |
Families Citing this family (242)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8948442B2 (en) * | 1982-06-18 | 2015-02-03 | Intelligent Technologies International, Inc. | Optical monitoring of vehicle interiors |
JP2669031B2 (ja) * | 1989-02-28 | 1997-10-27 | 日産自動車株式会社 | 自律走行車両 |
JP2669043B2 (ja) * | 1989-04-12 | 1997-10-27 | 日産自動車株式会社 | 自律走行車両 |
DE3936079A1 (de) * | 1989-10-30 | 1991-05-02 | Truetzschler & Co | Verfahren und vorrichtung zum oeffnen von ballen aus fasermaterial, z. b. baumwolle, chemiefasern u. dgl. |
JPH03201110A (ja) * | 1989-12-28 | 1991-09-03 | Toyota Central Res & Dev Lab Inc | 自律走行車の位置方位検出装置 |
JP2844242B2 (ja) * | 1990-03-19 | 1999-01-06 | 本田技研工業株式会社 | 自動走行装置 |
US5170352A (en) * | 1990-05-07 | 1992-12-08 | Fmc Corporation | Multi-purpose autonomous vehicle with path plotting |
US5111401A (en) * | 1990-05-19 | 1992-05-05 | The United States Of America As Represented By The Secretary Of The Navy | Navigational control system for an autonomous vehicle |
US5170351A (en) * | 1990-09-18 | 1992-12-08 | Matushita Electric Industrial Co., Ltd. | Automatic guided vehicle and method for controlling travel thereof |
DE59107029D1 (de) * | 1990-12-11 | 1996-01-18 | Daimler Benz Ag | Anordnung zur Verbesserung der Sicht, insbesondere in Fahrzeugen. |
US5125034A (en) * | 1990-12-27 | 1992-06-23 | Compax Corp. | Method and apparatus for analyzing fabric conditions |
DE4143703B4 (de) * | 1991-09-09 | 2008-06-19 | Daimler Ag | Anordnung zur Verbesserung der Sicht in Fahrzeugen |
JP2769052B2 (ja) * | 1991-04-09 | 1998-06-25 | インターナショナル・ビジネス・マシーンズ・コーポレイション | 自律移動機械、移動機械の制御装置及び方法 |
JP2901112B2 (ja) * | 1991-09-19 | 1999-06-07 | 矢崎総業株式会社 | 車両周辺監視装置 |
DE4141808B4 (de) * | 1991-12-18 | 2011-04-14 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren zur Fahrtroutenvorgabe bei Kraftfahrzeugen |
US7983817B2 (en) * | 1995-06-07 | 2011-07-19 | Automotive Technologies Internatinoal, Inc. | Method and arrangement for obtaining information about vehicle occupants |
JPH0785280B2 (ja) * | 1992-08-04 | 1995-09-13 | タカタ株式会社 | 神経回路網による衝突予測判定システム |
US5548511A (en) * | 1992-10-29 | 1996-08-20 | White Consolidated Industries, Inc. | Method for controlling self-running cleaning apparatus |
DE59305180D1 (de) * | 1992-11-10 | 1997-02-27 | Siemens Ag | Verfahren zur detektion und abspaltung des schattens sich bewegender objekte in einer digitalen bildsequenz |
US5313542A (en) * | 1992-11-30 | 1994-05-17 | Breault Research Organization, Inc. | Apparatus and method of rapidly measuring hemispherical scattered or radiated light |
US6822563B2 (en) | 1997-09-22 | 2004-11-23 | Donnelly Corporation | Vehicle imaging system with accessory control |
US5877897A (en) | 1993-02-26 | 1999-03-02 | Donnelly Corporation | Automatic rearview mirror, vehicle lighting control and vehicle interior monitoring system using a photosensor array |
EP0706667A1 (en) * | 1993-07-02 | 1996-04-17 | Gec-Marconi Avionics (Holdings) Limited | Road vehicle cruise control system |
JP2501010B2 (ja) * | 1993-10-25 | 1996-05-29 | インターナショナル・ビジネス・マシーンズ・コーポレイション | 移動ロボットの誘導装置 |
DE4447434A1 (de) * | 1994-02-23 | 1995-08-31 | Gfr Ges Fuer Regelungstechnik | CCD-Sensor für schnelles Auslesen von Bildzonen oder -zeilen |
DE4408328C2 (de) * | 1994-03-11 | 2002-09-26 | Siemens Ag | Verfahren zum Aufbau einer zellular strukturierten Umgebungskarte von einer selbstbeweglichen mobilen Einheit, welche sich mit Hilfe von auf Wellenreflexion basierenden Sensoren orientiert |
DE4408982C1 (de) * | 1994-03-16 | 1995-05-18 | Deutsche Forsch Luft Raumfahrt | Autonomes Navigationssystem für einen mobilen Roboter oder Manipulator |
US5559695A (en) * | 1994-12-27 | 1996-09-24 | Hughes Aircraft Company | Apparatus and method for self-calibrating visual time-to-contact sensor |
US6891563B2 (en) | 1996-05-22 | 2005-05-10 | Donnelly Corporation | Vehicular vision system |
US7655894B2 (en) | 1996-03-25 | 2010-02-02 | Donnelly Corporation | Vehicular image sensing system |
CN1292878A (zh) * | 1998-03-10 | 2001-04-25 | 西门子公司 | 探测目标位置的光探测器*** |
AUPP299498A0 (en) * | 1998-04-15 | 1998-05-07 | Commonwealth Scientific And Industrial Research Organisation | Method of tracking and sensing position of objects |
US20140152823A1 (en) * | 1998-11-30 | 2014-06-05 | American Vehicular Sciences Llc | Techniques to Obtain Information About Objects Around a Vehicle |
DE19949409A1 (de) * | 1999-10-13 | 2001-04-19 | Bosch Gmbh Robert | Verfahren und Vorrichtung zur Objektdetektierung |
US7581852B2 (en) * | 1999-11-15 | 2009-09-01 | Xenonics, Inc. | Portable device for viewing and imaging |
US8788092B2 (en) | 2000-01-24 | 2014-07-22 | Irobot Corporation | Obstacle following sensor scheme for a mobile robot |
US8412377B2 (en) | 2000-01-24 | 2013-04-02 | Irobot Corporation | Obstacle following sensor scheme for a mobile robot |
US6956348B2 (en) | 2004-01-28 | 2005-10-18 | Irobot Corporation | Debris sensor for cleaning apparatus |
DE10022216A1 (de) * | 2000-05-04 | 2001-11-08 | Oezkan Mustafa | Flächenüberwachung mit einer Kombination aus gepulsten Sendern und Flächenbildsensoren |
EP1297486A4 (en) | 2000-06-15 | 2006-09-27 | Automotive Systems Lab | OCCUPANCY SENSOR |
JP2002131016A (ja) * | 2000-10-27 | 2002-05-09 | Honda Motor Co Ltd | 距離測定装置、及び距離測定方法 |
GB2382251B (en) * | 2000-11-17 | 2004-01-07 | Samsung Kwangju Electronics Co | Mobile robot |
KR20020038296A (ko) * | 2000-11-17 | 2002-05-23 | 이충전 | 모빌로봇의 장애물 감지장치 및 감지방법 |
US6496754B2 (en) * | 2000-11-17 | 2002-12-17 | Samsung Kwangju Electronics Co., Ltd. | Mobile robot and course adjusting method thereof |
SE0004466D0 (sv) * | 2000-12-04 | 2000-12-04 | Abb Ab | Mobile Robot |
SE0004465D0 (sv) * | 2000-12-04 | 2000-12-04 | Abb Ab | Robot system |
US6690134B1 (en) | 2001-01-24 | 2004-02-10 | Irobot Corporation | Method and system for robot localization and confinement |
US7571511B2 (en) | 2002-01-03 | 2009-08-11 | Irobot Corporation | Autonomous floor-cleaning robot |
US6883201B2 (en) | 2002-01-03 | 2005-04-26 | Irobot Corporation | Autonomous floor-cleaning robot |
US6968073B1 (en) | 2001-04-24 | 2005-11-22 | Automotive Systems Laboratory, Inc. | Occupant detection system |
US7663333B2 (en) | 2001-06-12 | 2010-02-16 | Irobot Corporation | Method and system for multi-mode coverage for an autonomous robot |
US8396592B2 (en) | 2001-06-12 | 2013-03-12 | Irobot Corporation | Method and system for multi-mode coverage for an autonomous robot |
JP4087104B2 (ja) * | 2001-11-20 | 2008-05-21 | シャープ株式会社 | 群ロボットシステム |
DE10301468B4 (de) * | 2002-01-18 | 2010-08-05 | Honda Giken Kogyo K.K. | Vorrichtung zur Beobachtung der Umgebung eines Fahrzeugs |
US9128486B2 (en) | 2002-01-24 | 2015-09-08 | Irobot Corporation | Navigational control system for a robotic device |
DE10210301A1 (de) * | 2002-03-08 | 2003-09-18 | Valeo Schalter & Sensoren Gmbh | Verfahren und System zur Erfassung von Gegenständen im Nahbereich eines Fahrzeuges |
JP2003263104A (ja) * | 2002-03-11 | 2003-09-19 | Mitsubishi Electric Corp | 撮像情報認識システム |
JP4032793B2 (ja) * | 2002-03-27 | 2008-01-16 | ソニー株式会社 | 充電システム及び充電制御方法、ロボット装置、及び充電制御プログラム及び記録媒体 |
AU2003225228A1 (en) | 2002-05-03 | 2003-11-17 | Donnelly Corporation | Object detection system for vehicle |
KR100556612B1 (ko) * | 2002-06-29 | 2006-03-06 | 삼성전자주식회사 | 레이저를 이용한 위치 측정 장치 및 방법 |
WO2004015374A1 (en) * | 2002-08-09 | 2004-02-19 | Surveylab Group Limited | Mobile instrument, viewing device, and methods of processing and storing information |
US8428778B2 (en) | 2002-09-13 | 2013-04-23 | Irobot Corporation | Navigational control system for a robotic device |
US8386081B2 (en) | 2002-09-13 | 2013-02-26 | Irobot Corporation | Navigational control system for a robotic device |
US20040239796A1 (en) * | 2002-09-20 | 2004-12-02 | Seiko Epson Corporation | Backlight adjustment processing of image using image generation record information |
WO2004031877A1 (de) * | 2002-09-27 | 2004-04-15 | Volkswagen Aktiengesellschaft | Verfahren und vorrichtung zur ermittlung des fahrzeugumfeldes |
US7774158B2 (en) * | 2002-12-17 | 2010-08-10 | Evolution Robotics, Inc. | Systems and methods for landmark generation for visual simultaneous localization and mapping |
TWI261723B (en) * | 2003-05-09 | 2006-09-11 | Benq Corp | Projector for adjusting a screen size and brightness depending on various environment and a method thereof |
US9587938B2 (en) | 2003-06-17 | 2017-03-07 | Troxler Electronic Laboratories, Inc. | Method and apparatus for determining a characteristic of a construction material |
EP1636543B1 (en) * | 2003-06-17 | 2019-12-11 | Troxler Electronic Laboratories, Inc. | Method of determining a dimension of a sample of a construction material and associated apparatus |
US7916898B2 (en) * | 2003-09-15 | 2011-03-29 | Deere & Company | Method and system for identifying an edge of a crop |
EP1667874B1 (en) * | 2003-10-03 | 2008-08-27 | Automotive Systems Laboratory Inc. | Occupant detection system |
US7332890B2 (en) | 2004-01-21 | 2008-02-19 | Irobot Corporation | Autonomous robot auto-docking and energy management systems and methods |
US7689321B2 (en) * | 2004-02-13 | 2010-03-30 | Evolution Robotics, Inc. | Robust sensor fusion for mapping and localization in a simultaneous localization and mapping (SLAM) system |
JP4258413B2 (ja) * | 2004-03-26 | 2009-04-30 | 三菱ふそうトラック・バス株式会社 | 車両走行状態判定装置 |
US7526103B2 (en) | 2004-04-15 | 2009-04-28 | Donnelly Corporation | Imaging system for vehicle |
JP2008508572A (ja) | 2004-06-24 | 2008-03-21 | アイロボット コーポレーション | 携帯ロボットのプログラミングおよび診断ツール |
US8972052B2 (en) | 2004-07-07 | 2015-03-03 | Irobot Corporation | Celestial navigation system for an autonomous vehicle |
US7706917B1 (en) | 2004-07-07 | 2010-04-27 | Irobot Corporation | Celestial navigation system for an autonomous robot |
US7881496B2 (en) | 2004-09-30 | 2011-02-01 | Donnelly Corporation | Vision system for vehicle |
KR100703692B1 (ko) * | 2004-11-03 | 2007-04-05 | 삼성전자주식회사 | 공간상에 존재하는 오브젝트들을 구별하기 위한 시스템,장치 및 방법 |
JP4316477B2 (ja) * | 2004-11-18 | 2009-08-19 | パナソニック株式会社 | 移動ロボットの追従方法 |
US7620476B2 (en) | 2005-02-18 | 2009-11-17 | Irobot Corporation | Autonomous surface cleaning robot for dry cleaning |
US8392021B2 (en) | 2005-02-18 | 2013-03-05 | Irobot Corporation | Autonomous surface cleaning robot for wet cleaning |
ES2346343T3 (es) | 2005-02-18 | 2010-10-14 | Irobot Corporation | Robot autonomo de limpieza de superficies para una limpieza en seco y en mojado. |
US9092458B1 (en) | 2005-03-08 | 2015-07-28 | Irobot Corporation | System and method for managing search results including graphics |
US8930023B2 (en) | 2009-11-06 | 2015-01-06 | Irobot Corporation | Localization by learning of wave-signal distributions |
US20060235610A1 (en) * | 2005-04-14 | 2006-10-19 | Honeywell International Inc. | Map-based trajectory generation |
JP4300199B2 (ja) * | 2005-06-13 | 2009-07-22 | 株式会社東芝 | 移動ロボット、移動ロボットの位置姿勢算出方法、移動ロボットの自律走行システム |
US9002511B1 (en) * | 2005-10-21 | 2015-04-07 | Irobot Corporation | Methods and systems for obstacle detection using structured light |
WO2007051972A1 (en) * | 2005-10-31 | 2007-05-10 | Qinetiq Limited | Navigation system |
ES2706729T3 (es) | 2005-12-02 | 2019-04-01 | Irobot Corp | Sistema de robot |
KR101300493B1 (ko) | 2005-12-02 | 2013-09-02 | 아이로보트 코퍼레이션 | 커버리지 로봇 이동성 |
EP2544065B1 (en) | 2005-12-02 | 2017-02-08 | iRobot Corporation | Robot system |
EP1969438B1 (en) | 2005-12-02 | 2009-09-09 | iRobot Corporation | Modular robot |
EP2816434A3 (en) | 2005-12-02 | 2015-01-28 | iRobot Corporation | Autonomous coverage robot |
EP2394553B1 (en) | 2006-05-19 | 2016-04-20 | iRobot Corporation | Removing debris from cleaning robots |
US8417383B2 (en) | 2006-05-31 | 2013-04-09 | Irobot Corporation | Detecting robot stasis |
GB0614529D0 (en) * | 2006-07-21 | 2006-08-30 | Trw Ltd | Generating A Map |
WO2008024639A2 (en) | 2006-08-11 | 2008-02-28 | Donnelly Corporation | Automatic headlamp control system |
JP5112666B2 (ja) * | 2006-09-11 | 2013-01-09 | 株式会社日立製作所 | 移動装置 |
DE102007015552B3 (de) * | 2007-03-29 | 2008-08-07 | Miele & Cie. Kg | Selbstfahrender Roboter zur Behandlung von Bodenflächen |
EP3031375B1 (en) | 2007-05-09 | 2021-11-03 | iRobot Corporation | Compact autonomous coverage robot |
KR101461185B1 (ko) * | 2007-11-09 | 2014-11-14 | 삼성전자 주식회사 | 스트럭쳐드 라이트를 이용한 3차원 맵 생성 장치 및 방법 |
US20090140926A1 (en) * | 2007-12-04 | 2009-06-04 | Elden Douglas Traster | System and method for localization utilizing dynamically deployable beacons |
JP4788722B2 (ja) | 2008-02-26 | 2011-10-05 | トヨタ自動車株式会社 | 自律移動ロボット、自己位置推定方法、環境地図の生成方法、環境地図の生成装置、及び環境地図のデータ構造 |
JP4508252B2 (ja) * | 2008-03-12 | 2010-07-21 | 株式会社デンソーウェーブ | ロボット教示装置 |
US8229228B2 (en) * | 2008-09-16 | 2012-07-24 | Robert Bosch Gmbh | Image analysis using a pre-calibrated pattern of radiation |
JP2010071881A (ja) * | 2008-09-19 | 2010-04-02 | Denso Corp | 障害物検知システム |
JP5051468B2 (ja) * | 2008-12-25 | 2012-10-17 | トヨタ自動車株式会社 | センサ校正装置、及び、センサ校正方法 |
US20100292884A1 (en) * | 2009-05-12 | 2010-11-18 | Rogelio Manfred Neumann | Device for Influencing Navigation of an Autonomous Vehicle |
US8219274B2 (en) * | 2009-07-02 | 2012-07-10 | Robert Bosch Gmbh | 3-dimensional perception system and method for mobile platform |
CN105147193B (zh) | 2010-02-16 | 2018-06-12 | 艾罗伯特公司 | 真空吸尘器毛刷 |
JP4918732B2 (ja) * | 2010-03-05 | 2012-04-18 | 日本電気株式会社 | 光測定装置及び方法 |
GB201010244D0 (en) * | 2010-06-18 | 2010-07-21 | Hyde John | Line and image capture for 3D applications independent of high ambient lighting conditions |
AU2011305154B2 (en) | 2010-09-24 | 2015-02-05 | Irobot Corporation | Systems and methods for VSLAM optimization |
EP2466409B1 (de) | 2010-12-15 | 2014-03-19 | MT Robot AG | Verfahren und Vorrichtung zum automatisierten Steuern eines Transportsystems |
WO2012170580A2 (en) | 2011-06-06 | 2012-12-13 | Troxler Electronic Laboratories, Inc. | Optical method and apparatus for determining a characteristic such as volume and density of an excavated void in a construction material |
US8798840B2 (en) | 2011-09-30 | 2014-08-05 | Irobot Corporation | Adaptive mapping with spatial summaries of sensor data |
DE102012002922A1 (de) * | 2012-02-14 | 2013-08-14 | Audi Ag | Time-Of-Flight-Kamera für ein Kraftfahrzeug, Kraftfahrzeug und Verfahren zum Betrieb einer Time-Of-Flight-Kamera |
US8958911B2 (en) * | 2012-02-29 | 2015-02-17 | Irobot Corporation | Mobile robot |
US20130246004A1 (en) * | 2012-03-15 | 2013-09-19 | Shenzhen China Star Optoelectronics Technology Co. Ltd. | Automatic particle measurement cart and automatic particle measurement system for clean room and measurement method thereof |
DE102012208094A1 (de) * | 2012-05-15 | 2013-11-21 | Kuka Laboratories Gmbh | Verfahren zum Ermitteln möglicher Positionen eines Roboterarms |
KR101949277B1 (ko) * | 2012-06-18 | 2019-04-25 | 엘지전자 주식회사 | 이동 로봇 |
WO2014033055A1 (en) | 2012-08-27 | 2014-03-06 | Aktiebolaget Electrolux | Robot positioning system |
US9020637B2 (en) | 2012-11-02 | 2015-04-28 | Irobot Corporation | Simultaneous localization and mapping for a mobile robot |
BE1021517B1 (nl) * | 2012-12-18 | 2015-12-04 | Egemin N.V./S.A. | Combinatie-veiligheidssensor. |
KR101490170B1 (ko) * | 2013-03-05 | 2015-02-05 | 엘지전자 주식회사 | 로봇 청소기 |
CN105101855A (zh) | 2013-04-15 | 2015-11-25 | 伊莱克斯公司 | 具有伸出的侧刷的机器人真空吸尘器 |
WO2014169943A1 (en) | 2013-04-15 | 2014-10-23 | Aktiebolaget Electrolux | Robotic vacuum cleaner |
US9037396B2 (en) | 2013-05-23 | 2015-05-19 | Irobot Corporation | Simultaneous localization and mapping for a mobile robot |
US10209080B2 (en) | 2013-12-19 | 2019-02-19 | Aktiebolaget Electrolux | Robotic cleaning device |
EP3082541B1 (en) | 2013-12-19 | 2018-04-04 | Aktiebolaget Electrolux | Adaptive speed control of rotating side brush |
US10617271B2 (en) | 2013-12-19 | 2020-04-14 | Aktiebolaget Electrolux | Robotic cleaning device and method for landmark recognition |
CN105813528B (zh) | 2013-12-19 | 2019-05-07 | 伊莱克斯公司 | 机器人清洁设备的障碍物感测爬行 |
EP3084538B1 (en) | 2013-12-19 | 2017-11-01 | Aktiebolaget Electrolux | Robotic cleaning device with perimeter recording function |
JP6638988B2 (ja) | 2013-12-19 | 2020-02-05 | アクチエボラゲット エレクトロルックス | サイドブラシを有し、渦巻きパターンで動くロボットバキュームクリーナ |
WO2015090404A1 (en) | 2013-12-19 | 2015-06-25 | Aktiebolaget Electrolux | Prioritizing cleaning areas |
WO2015090439A1 (en) | 2013-12-20 | 2015-06-25 | Aktiebolaget Electrolux | Dust container |
DE102014201313A1 (de) | 2014-01-24 | 2015-07-30 | Myestro Interactive Gmbh | Verfahren zur Erkennung einer Bewegungsbahn mindestens eines bewegten Objektes innerhalb eines Erfassungsbereiches, Verfahren zur Gestikerkennung unter Einsatz eines derartigen Erkennungsverfahrens sowie Vorrichtung zur Durchführung eines derartigen Erkennungsverfahrens |
CN103901890B (zh) * | 2014-04-09 | 2017-05-24 | 中国科学院深圳先进技术研究院 | 基于家庭庭院的户外自动行走装置及其控制***和方法 |
EP3139806B1 (de) | 2014-05-08 | 2019-07-17 | Alfred Kärcher SE & Co. KG | Selbstfahrendes und selbstlenkendes bodenreinigungsgerät und verfahren zum reinigen einer bodenfläche |
CN105336005B (zh) * | 2014-06-27 | 2018-12-14 | 华为技术有限公司 | 一种获取目标物体体征数据的方法、装置及终端 |
US9953287B1 (en) | 2014-07-01 | 2018-04-24 | Amazon Technologies, Inc. | Utilizing automated aerial vehicles for transporting priority pick items |
EP3167341B1 (en) | 2014-07-10 | 2018-05-09 | Aktiebolaget Electrolux | Method for detecting a measurement error in a robotic cleaning device |
EP3190939B1 (en) | 2014-09-08 | 2021-07-21 | Aktiebolaget Electrolux | Robotic vacuum cleaner |
EP3190938A1 (en) | 2014-09-08 | 2017-07-19 | Aktiebolaget Electrolux | Robotic vacuum cleaner |
DK3193807T3 (en) | 2014-09-18 | 2021-10-18 | Ideassociates Iom Ltd | A wheeled transportation device |
KR101620427B1 (ko) * | 2014-10-14 | 2016-05-12 | 엘지전자 주식회사 | 로봇 청소기의 제어방법 |
US10268906B2 (en) * | 2014-10-24 | 2019-04-23 | Magik Eye Inc. | Distance sensor with directional projection beams |
DE112015005020T5 (de) * | 2014-11-05 | 2017-07-27 | Trw Automotive U.S. Llc | Verbesserte objektdetektion unter verwendung von strukturiertem licht |
WO2016091291A1 (en) | 2014-12-10 | 2016-06-16 | Aktiebolaget Electrolux | Using laser sensor for floor type detection |
US10874271B2 (en) | 2014-12-12 | 2020-12-29 | Aktiebolaget Electrolux | Side brush and robotic cleaner |
US9656805B1 (en) | 2014-12-12 | 2017-05-23 | Amazon Technologies, Inc. | Mobile base utilizing transportation units for receiving items |
US9928474B1 (en) | 2014-12-12 | 2018-03-27 | Amazon Technologies, Inc. | Mobile base utilizing transportation units for delivering items |
CN107003669B (zh) | 2014-12-16 | 2023-01-31 | 伊莱克斯公司 | 用于机器人清洁设备的基于经验的路标 |
US10678251B2 (en) | 2014-12-16 | 2020-06-09 | Aktiebolaget Electrolux | Cleaning method for a robotic cleaning device |
KR102343513B1 (ko) | 2015-04-17 | 2021-12-28 | 에이비 엘렉트로룩스 | 로봇 청소 장치 및 로봇 청소 장치의 제어 방법 |
US9786187B1 (en) * | 2015-06-09 | 2017-10-10 | Amazon Technologies, Inc. | Transportation network utilizing autonomous vehicles for transporting items |
US10133276B1 (en) * | 2015-06-19 | 2018-11-20 | Amazon Technologies, Inc. | Object avoidance with object detection and classification |
DE102015211865B3 (de) * | 2015-06-25 | 2016-05-12 | Kuka Roboter Gmbh | Verfahren zum redundanzoptimierten Planen eines Betriebs eines mobilen Roboters |
WO2017036532A1 (en) | 2015-09-03 | 2017-03-09 | Aktiebolaget Electrolux | System of robotic cleaning devices |
US10139217B1 (en) * | 2016-02-16 | 2018-11-27 | Google Llc | Array based patterned illumination projector |
US11169533B2 (en) | 2016-03-15 | 2021-11-09 | Aktiebolaget Electrolux | Robotic cleaning device and a method at the robotic cleaning device of performing cliff detection |
US10553122B1 (en) * | 2016-03-22 | 2020-02-04 | Amazon Technologies, Inc. | Unmanned aerial vehicle data collection for routing |
JP6754594B2 (ja) * | 2016-03-23 | 2020-09-16 | 株式会社小松製作所 | モータグレーダ |
GB2548827B (en) * | 2016-03-25 | 2020-09-23 | Jaguar Land Rover Ltd | Apparatus, system, method and computer program for providing lighting of a vehicle |
WO2017194102A1 (en) | 2016-05-11 | 2017-11-16 | Aktiebolaget Electrolux | Robotic cleaning device |
KR101917116B1 (ko) | 2016-05-17 | 2018-11-09 | 엘지전자 주식회사 | 로봇 청소기 |
TWI689387B (zh) | 2016-05-17 | 2020-04-01 | 南韓商Lg電子股份有限公司 | 行動機器人 |
TWI639021B (zh) | 2016-05-17 | 2018-10-21 | 南韓商Lg電子股份有限公司 | 行動機器人及其控制方法 |
TWI653964B (zh) | 2016-05-17 | 2019-03-21 | Lg電子股份有限公司 | 行動機器人及其控制方法 |
US10441128B2 (en) | 2016-05-20 | 2019-10-15 | Lg Electronics Inc. | Autonomous cleaner |
US10481611B2 (en) * | 2016-05-20 | 2019-11-19 | Lg Electronics Inc. | Autonomous cleaner |
US10463212B2 (en) | 2016-05-20 | 2019-11-05 | Lg Electronics Inc. | Autonomous cleaner |
US10463221B2 (en) | 2016-05-20 | 2019-11-05 | Lg Electronics Inc. | Autonomous cleaner |
WO2017200346A1 (ko) | 2016-05-20 | 2017-11-23 | 엘지전자 주식회사 | 로봇 청소기 |
EP3459692B1 (en) | 2016-05-20 | 2022-03-30 | LG Electronics Inc. | Robot cleaner |
EP4159101A3 (en) | 2016-05-20 | 2023-06-07 | LG Electronics Inc. | Robot cleaner |
US10362916B2 (en) | 2016-05-20 | 2019-07-30 | Lg Electronics Inc. | Autonomous cleaner |
US10524628B2 (en) | 2016-05-20 | 2020-01-07 | Lg Electronics Inc. | Autonomous cleaner |
US10398276B2 (en) | 2016-05-20 | 2019-09-03 | Lg Electronics Inc. | Autonomous cleaner |
WO2017200351A1 (ko) | 2016-05-20 | 2017-11-23 | 엘지전자 주식회사 | 로봇 청소기 |
TWI621834B (zh) * | 2016-05-23 | 2018-04-21 | 華碩電腦股份有限公司 | 導航系統及導航方法 |
US10216188B2 (en) | 2016-07-25 | 2019-02-26 | Amazon Technologies, Inc. | Autonomous ground vehicles based at delivery locations |
US10248120B1 (en) | 2016-09-16 | 2019-04-02 | Amazon Technologies, Inc. | Navigable path networks for autonomous vehicles |
US10303171B1 (en) | 2016-09-29 | 2019-05-28 | Amazon Technologies, Inc. | Autonomous ground vehicles providing ordered items in pickup areas |
US10222798B1 (en) | 2016-09-29 | 2019-03-05 | Amazon Technologies, Inc. | Autonomous ground vehicles congregating in meeting areas |
US10245993B1 (en) | 2016-09-29 | 2019-04-02 | Amazon Technologies, Inc. | Modular autonomous ground vehicles |
US10241516B1 (en) | 2016-09-29 | 2019-03-26 | Amazon Technologies, Inc. | Autonomous ground vehicles deployed from facilities |
US10683171B2 (en) | 2016-09-30 | 2020-06-16 | Staples, Inc. | Hybrid modular storage fetching system |
US10589931B2 (en) | 2016-09-30 | 2020-03-17 | Staples, Inc. | Hybrid modular storage fetching system |
US10803420B2 (en) | 2016-09-30 | 2020-10-13 | Staples, Inc. | Hybrid modular storage fetching system |
US10233021B1 (en) | 2016-11-02 | 2019-03-19 | Amazon Technologies, Inc. | Autonomous vehicles for delivery and safety |
US10514690B1 (en) | 2016-11-15 | 2019-12-24 | Amazon Technologies, Inc. | Cooperative autonomous aerial and ground vehicles for item delivery |
CN106382920A (zh) * | 2016-11-25 | 2017-02-08 | 深圳悉罗机器人有限公司 | 多功能视觉传感器、移动机器人及移动机器人的控制方法 |
CN106598046B (zh) * | 2016-11-29 | 2020-07-10 | 北京儒博科技有限公司 | 机器人躲避控制方法和装置 |
US11263579B1 (en) | 2016-12-05 | 2022-03-01 | Amazon Technologies, Inc. | Autonomous vehicle networks |
JP7133554B2 (ja) | 2016-12-07 | 2022-09-08 | マジック アイ インコーポレイテッド | 焦点調整可能な画像センサを含む距離センサ |
US10310500B1 (en) | 2016-12-23 | 2019-06-04 | Amazon Technologies, Inc. | Automated access to secure facilities using autonomous vehicles |
US10308430B1 (en) | 2016-12-23 | 2019-06-04 | Amazon Technologies, Inc. | Distribution and retrieval of inventory and materials using autonomous vehicles |
US10310499B1 (en) | 2016-12-23 | 2019-06-04 | Amazon Technologies, Inc. | Distributed production of items from locally sourced materials using autonomous vehicles |
US10573106B1 (en) | 2017-03-22 | 2020-02-25 | Amazon Technologies, Inc. | Personal intermediary access device |
US10147249B1 (en) | 2017-03-22 | 2018-12-04 | Amazon Technologies, Inc. | Personal intermediary communication device |
DE102017208485A1 (de) * | 2017-05-19 | 2018-11-22 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Anordnung und Verfahren zur berührungslosen Entfernungsbestimmung nach Art des Lichtschnittverfahrens |
US11821985B2 (en) | 2017-06-02 | 2023-11-21 | Pixart Imaging Inc. | Mobile robot performing multiple detections using image frames of same optical sensor |
JP7243967B2 (ja) | 2017-06-02 | 2023-03-22 | アクチエボラゲット エレクトロルックス | ロボット清掃デバイスの前方の表面のレベル差を検出する方法 |
US11691264B2 (en) * | 2017-06-02 | 2023-07-04 | Pixart Imaging Inc. | Mobile robot performing multiple detections using image frames of same optical sensor |
US11752635B2 (en) | 2017-06-02 | 2023-09-12 | Pixart Imaging Inc. | Mobile robot performing multiple detections using image frames of same optical sensor |
US10627518B2 (en) | 2017-06-02 | 2020-04-21 | Pixart Imaging Inc | Tracking device with improved work surface adaptability |
CN107175645A (zh) * | 2017-07-05 | 2017-09-19 | 深圳悉罗机器人有限公司 | 移动机器人 |
US11232391B1 (en) | 2017-08-31 | 2022-01-25 | Amazon Technologies, Inc. | Customized indoor and outdoor navigation maps and routes for autonomous vehicles |
JP6989210B2 (ja) | 2017-09-26 | 2022-01-05 | アクチエボラゲット エレクトロルックス | ロボット清掃デバイスの移動の制御 |
US10885761B2 (en) | 2017-10-08 | 2021-01-05 | Magik Eye Inc. | Calibrating a sensor system including multiple movable sensors |
CN111492262B (zh) | 2017-10-08 | 2024-06-28 | 魔眼公司 | 使用经向网格图案的距离测量 |
US11209634B2 (en) | 2017-11-17 | 2021-12-28 | Robert Bosch Start-Up Platform North America, LLC, Series 1 | Optical system |
US11720109B2 (en) * | 2017-12-13 | 2023-08-08 | Sony Corporation | Moving apparatus, information processing apparatus, and method |
KR20200123849A (ko) | 2018-03-20 | 2020-10-30 | 매직 아이 인코포레이티드 | 가변 밀도들의 투영 패턴을 사용하는 거리 측정 |
JP7354133B2 (ja) | 2018-03-20 | 2023-10-02 | マジック アイ インコーポレイテッド | 三次元深度検知及び二次元撮像のためのカメラ露出調節 |
KR102070283B1 (ko) * | 2018-05-16 | 2020-01-28 | 엘지전자 주식회사 | 청소기 및 그 제어방법 |
EP3803266A4 (en) | 2018-06-06 | 2022-03-09 | Magik Eye Inc. | DISTANCE MEASUREMENT USING HIGH DENSITY PROJECTION PATTERNS |
CN112714858B (zh) * | 2018-07-13 | 2024-07-09 | 拉布拉多***公司 | 能够在不同环境照明条件下操作的移动设备的视觉导航 |
AU2019312668B2 (en) | 2018-08-01 | 2022-12-08 | Sharkninja Operating Llc | Robotic vacuum cleaner |
US11084410B1 (en) | 2018-08-07 | 2021-08-10 | Staples, Inc. | Automated guided vehicle for transporting shelving units |
US11475584B2 (en) | 2018-08-07 | 2022-10-18 | Magik Eye Inc. | Baffles for three-dimensional sensors having spherical fields of view |
US11590997B1 (en) | 2018-08-07 | 2023-02-28 | Staples, Inc. | Autonomous shopping cart |
US11630447B1 (en) | 2018-08-10 | 2023-04-18 | Staples, Inc. | Automated guided vehicle for transporting objects |
KR102252034B1 (ko) * | 2018-09-06 | 2021-05-14 | 엘지전자 주식회사 | 이동 로봇 및 그 제어방법 |
US11392130B1 (en) | 2018-12-12 | 2022-07-19 | Amazon Technologies, Inc. | Selecting delivery modes and delivery areas using autonomous ground vehicles |
US11119487B2 (en) | 2018-12-31 | 2021-09-14 | Staples, Inc. | Automated preparation of deliveries in delivery vehicles using automated guided vehicles |
US11180069B2 (en) | 2018-12-31 | 2021-11-23 | Staples, Inc. | Automated loading of delivery vehicles using automated guided vehicles |
EP3911920B1 (en) | 2019-01-20 | 2024-05-29 | Magik Eye Inc. | Three-dimensional sensor including bandpass filter having multiple passbands |
US11474209B2 (en) | 2019-03-25 | 2022-10-18 | Magik Eye Inc. | Distance measurement using high density projection patterns |
US11124401B1 (en) | 2019-03-31 | 2021-09-21 | Staples, Inc. | Automated loading of delivery vehicles |
US11019249B2 (en) | 2019-05-12 | 2021-05-25 | Magik Eye Inc. | Mapping three-dimensional depth map data onto two-dimensional images |
CN110262505B (zh) * | 2019-07-03 | 2022-03-11 | 安徽工程大学 | 虚拟现实中机器人按规划路径运动可视化方法 |
US11474530B1 (en) | 2019-08-15 | 2022-10-18 | Amazon Technologies, Inc. | Semantic navigation of autonomous ground vehicles |
US10796562B1 (en) | 2019-09-26 | 2020-10-06 | Amazon Technologies, Inc. | Autonomous home security devices |
US11260970B2 (en) | 2019-09-26 | 2022-03-01 | Amazon Technologies, Inc. | Autonomous home security devices |
JP2023504157A (ja) | 2019-12-01 | 2023-02-01 | マジック アイ インコーポレイテッド | 飛行時間情報を用いた三角測量ベースの3次元距離測定の向上 |
CN114830190A (zh) | 2019-12-29 | 2022-07-29 | 魔眼公司 | 将三维坐标与二维特征点相关联 |
US11688088B2 (en) | 2020-01-05 | 2023-06-27 | Magik Eye Inc. | Transferring the coordinate system of a three-dimensional camera to the incident point of a two-dimensional camera |
CN117479873A (zh) * | 2021-07-23 | 2024-01-30 | 阿尔弗雷德·卡赫欧洲两合公司 | 自移行且自转向的地面清洁设备和地面清洁*** |
Family Cites Families (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3187185A (en) * | 1960-12-22 | 1965-06-01 | United States Steel Corp | Apparatus for determining surface contour |
BE707075A (ja) * | 1967-11-24 | 1968-05-24 | ||
US3625618A (en) * | 1969-10-23 | 1971-12-07 | Infrared Ind Inc | Optical contour device and method |
US3590258A (en) * | 1969-11-05 | 1971-06-29 | Ishikawajima Harima Heavy Ind | Apparatus for controlling the shape of rolled product |
US3773422A (en) * | 1971-04-07 | 1973-11-20 | Singer Co | Calculating linear dimensions from tv images |
US4119900A (en) * | 1973-12-21 | 1978-10-10 | Ito Patent-Ag | Method and system for the automatic orientation and control of a robot |
US4188544A (en) * | 1977-08-22 | 1980-02-12 | Weyerhaeuser Company | Method and apparatus for automatically processing a workpiece employing calibrated scanning |
SE7804927L (sv) * | 1978-04-28 | 1979-10-29 | Volvo Ab | Anordning for att orientera exempelvis ett lyftdon i forhallande till en last |
US4335962A (en) * | 1979-07-20 | 1982-06-22 | Robotic Vision Systems, Inc. | Method and apparatus for determining spatial information |
US4290043A (en) * | 1979-10-16 | 1981-09-15 | Kaplan Irwin M | Method of and system for detecting marine obstacles |
DE3121684A1 (de) * | 1981-06-01 | 1982-12-16 | Klaus Prof Dr Haefner | Sicherheitszonen-system fuer fahrzeuge |
JPS58167902A (ja) * | 1982-03-30 | 1983-10-04 | Agency Of Ind Science & Technol | 物体検出装置 |
JPS58177295A (ja) * | 1982-04-07 | 1983-10-17 | 株式会社日立製作所 | ロボット制御装置 |
US4611292A (en) * | 1982-10-06 | 1986-09-09 | Hitachi, Ltd. | Robot vision system |
JPS59203975A (ja) * | 1983-05-06 | 1984-11-19 | Nissan Motor Co Ltd | 車両用光レ−ダ装置 |
FR2554612B1 (fr) * | 1983-11-04 | 1988-07-08 | Onera (Off Nat Aerospatiale) | Procede et dispositif de guidage automatique de mobiles en particulier de chariots automoteurs sans conducteur |
US4620285A (en) * | 1984-04-24 | 1986-10-28 | Heath Company | Sonar ranging/light detection system for use in a robot |
JPS60249076A (ja) * | 1984-05-25 | 1985-12-09 | Casio Comput Co Ltd | 障害物検知装置 |
JPS60256076A (ja) * | 1984-06-01 | 1985-12-17 | Nissan Motor Co Ltd | 先行車検出装置 |
JPS616033A (ja) * | 1984-06-15 | 1986-01-11 | Nippon Soken Inc | 車両用速度制御装置 |
DE3423536C2 (de) * | 1984-06-26 | 1986-09-11 | Erwin Sick Gmbh Optik-Elektronik, 7808 Waldkirch | Lichtelektrische Schutzzonenvorrichtung an einem Fahrzeug |
JPS6197711A (ja) * | 1984-10-18 | 1986-05-16 | Casio Comput Co Ltd | 赤外線追尾ロボツトシステム |
US4729660A (en) * | 1985-03-22 | 1988-03-08 | Toshihiro Tsumura | Position measuring apparatus of moving vehicle |
US4687326A (en) * | 1985-11-12 | 1987-08-18 | General Electric Company | Integrated range and luminance camera |
US4653316A (en) * | 1986-03-14 | 1987-03-31 | Kabushiki Kaisha Komatsu Seisakusho | Apparatus mounted on vehicles for detecting road surface conditions |
US4751658A (en) * | 1986-05-16 | 1988-06-14 | Denning Mobile Robotics, Inc. | Obstacle avoidance system |
ES2011631B3 (es) * | 1987-05-09 | 1990-02-01 | Schenck Ag Carl | Procedimiento para el reconocimiento de cambios en el espacio de viaje de un vehiculo sin conductor |
US4843565A (en) * | 1987-07-30 | 1989-06-27 | American Electronics, Inc. | Range determination method and apparatus |
US4849679A (en) * | 1987-12-31 | 1989-07-18 | Westinghouse Electric Corp. | Image processing system for an optical seam tracker |
US4851661A (en) * | 1988-02-26 | 1989-07-25 | The United States Of America As Represented By The Secretary Of The Navy | Programmable near-infrared ranging system |
-
1988
- 1988-09-06 US US07/241,059 patent/US4954962A/en not_active Expired - Lifetime
-
1989
- 1989-09-06 JP JP1229472A patent/JPH02170205A/ja active Pending
- 1989-09-06 EP EP19890850293 patent/EP0358628A3/en not_active Withdrawn
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006239844A (ja) * | 2005-03-04 | 2006-09-14 | Sony Corp | 障害物回避装置、障害物回避方法及び障害物回避プログラム並びに移動型ロボット装置 |
JP2006300927A (ja) * | 2005-04-23 | 2006-11-02 | Lg Electronics Inc | 走行ロボットの位置感知装置及びこれを備えたロボット掃除機 |
JP2010256179A (ja) * | 2009-04-24 | 2010-11-11 | Hokuyo Automatic Co | 測距方法及び車載測距装置 |
US9224054B2 (en) | 2009-08-28 | 2015-12-29 | Indian Institute Of Science | Machine vision based obstacle avoidance system |
US8886385B2 (en) | 2009-11-20 | 2014-11-11 | Murata Machinery, Ltd. | Autonomous mobile body and control method of same |
JP2011108129A (ja) * | 2009-11-20 | 2011-06-02 | Murata Machinery Ltd | 自律移動体とその制御方法 |
US8948956B2 (en) | 2009-11-20 | 2015-02-03 | Murata Machinery, Ltd. | Autonomous mobile body and control method of same |
WO2011062094A1 (ja) * | 2009-11-20 | 2011-05-26 | 村田機械株式会社 | 自律移動体とその制御方法 |
JP2013174482A (ja) * | 2012-02-24 | 2013-09-05 | Nissan Motor Co Ltd | 距離計測装置 |
KR20170020419A (ko) * | 2014-06-05 | 2017-02-22 | 소프트뱅크 로보틱스 유럽 | 평면들을 교차하여 장애물을 검출하는 장치 및 이러한 장치를 사용하는 검출 방법 |
JP2017518579A (ja) * | 2014-06-05 | 2017-07-06 | ソフトバンク・ロボティクス・ヨーロッパSoftbank Robotics Europe | 水平面による障害物検出装置およびこのような装置を実装する検出方法 |
JP2016063769A (ja) * | 2014-09-24 | 2016-04-28 | 株式会社クボタ | 自動走行車両 |
JP2018142276A (ja) * | 2017-02-28 | 2018-09-13 | 株式会社イージスモスジャパン | 経路探索システム及び経路探索方法 |
JP2022505772A (ja) * | 2018-11-01 | 2022-01-14 | ウェイモ エルエルシー | 構造化光照明付き飛行時間型センサ |
Also Published As
Publication number | Publication date |
---|---|
US4954962A (en) | 1990-09-04 |
EP0358628A3 (en) | 1991-05-22 |
EP0358628A2 (en) | 1990-03-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JPH02170205A (ja) | 光線システムで構成する視覚航法及び障害物回避装置 | |
US5040116A (en) | Visual navigation and obstacle avoidance structured light system | |
US12025439B2 (en) | Surveying apparatus comprising event-based camera | |
US20240094329A1 (en) | Detector for optically detecting at least one object | |
US6031606A (en) | Process and device for rapid detection of the position of a target marking | |
US4797557A (en) | Position sensing system for a moving object wherein a lens focuses light onto a radiation sensitive matrix | |
CN113227839B (zh) | 具有结构光照明器的飞行时间传感器 | |
US5110202A (en) | Spatial positioning and measurement system | |
US10094927B2 (en) | Detector for optically determining a position of at least one object | |
KR102246139B1 (ko) | 적어도 하나의 물체를 광학적으로 검출하기 위한 검출기 | |
US11859976B2 (en) | Automatic locating of target marks | |
US20040066500A1 (en) | Occupancy detection and measurement system and method | |
US20050023448A1 (en) | Position-detecting device | |
JP2021532648A (ja) | ハイブリッド飛行時間型イメージャモジュール | |
WO2004029546A1 (ja) | 物体の計測方法及び物体の計測装置 | |
JP2022171677A (ja) | 画像取込デバイスを用いて測定ポイントを探し出すデバイス及び方法 | |
JPS6215479A (ja) | オ−トトラツキング測距装置 | |
US20040239528A1 (en) | Method and apparatus for measuring speed | |
JPH09203631A (ja) | 測距センサ | |
JP2000304508A (ja) | 3次元入力装置 | |
Everett et al. | A programmable near-infrared proximity detector for robot navigation | |
US20210239839A1 (en) | Depth mapping system and method therefor | |
JPS59114409A (ja) | 光学式距離測定装置 | |
JPH05240639A (ja) | 距離測定装置 | |
JP2000304514A (ja) | 3次元入力装置 |