JP3641335B2 - 全方位視覚センサを用いた位置検出方法 - Google Patents

全方位視覚センサを用いた位置検出方法 Download PDF

Info

Publication number
JP3641335B2
JP3641335B2 JP32283396A JP32283396A JP3641335B2 JP 3641335 B2 JP3641335 B2 JP 3641335B2 JP 32283396 A JP32283396 A JP 32283396A JP 32283396 A JP32283396 A JP 32283396A JP 3641335 B2 JP3641335 B2 JP 3641335B2
Authority
JP
Japan
Prior art keywords
image
visual sensor
omnidirectional visual
standard pattern
omnidirectional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP32283396A
Other languages
English (en)
Other versions
JPH10160463A (ja
Inventor
拓一 西村
嶐一 岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP32283396A priority Critical patent/JP3641335B2/ja
Publication of JPH10160463A publication Critical patent/JPH10160463A/ja
Application granted granted Critical
Publication of JP3641335B2 publication Critical patent/JP3641335B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は移動ロボット等を使用して位置検出を行うための全方位視覚センサを用いた位置検出方法に関する。
【0002】
【従来の技術】
オフィス、家庭のような実世界における移動ロボットの位置推定、誘導法では、実時間処理が必要不可欠であるとともに、走行外乱(スリップや揺れなど)に対するロバスト性が要求される。このような場合、内界センサのみによる位置推定法では誤差が蓄積されやすい。そこで、外界センサから環境情報を求め、あらかじめ獲得した環境モデルとの照合により自己位置を推定する方法が用いられている。外界センサとしては、超音波センサ、レーザレンジファインダ、視覚センサなどがあるが、なかでも多くの情報を獲得できる視覚センサが有望視されている。
【0003】
【発明が解決しようとする課題】
しかしながら、このような視覚センサを移動ロボットに搭載して、位置検出を行うために、地上の特定位置に光学的特徴を持つ識別板、たとえばバーコードや特定の色を記載した識別板を撮像装置の視野に入るように設置しなければならない。このような制限は装置コストの増大となるのみならず、識別板を好適な場所に設置できない場所では位置検出ができないという事態も生じる。
【0004】
そこで、本発明の目的は、上述の点に鑑みて、視覚センサを使用して位置検出を行う際に識別板を設置しなくてもあるいは識別板の設置位置の制限を緩和しても精度よく位置検出を行うことができる全方位視覚センサを用いた位置検出方法を提供することにある。
【0005】
【課題を解決するための手段】
このような目的を達成するために、請求項1の発明は、全方位に視野を持つ全方位視覚センサを移動体に予め搭載しておき、前記移動体を特定の経路上を移動させて、前記全方位視覚センサにより該移動体周辺の環境の画像を時系列的に標準パターンとして取得し、
当該取得した画像と位置を予め関連付けておき、前記移動体が任意の経路を移動しているときに前記全方位視覚センサの取得画像と前記標準パターンの画像とをそれら画像の特徴量の形態で比較し、一致の画像が得られた場合には一致の前記標準パターンの画像に関連付けられている位置を検出結果とすることを特徴とする。
【0006】
請求項1に記載の全方位視覚センサを用いた位置検出方法において、前記移動体が特定経路移動したときに前記全方位視覚センサにより取得した画像からその画像特徴を抽出して該画像特徴を前記標準パターンとなし、前記全方位視覚センサの取得画像と前記標準パターンの画像との比較に際し、前記全方位視覚センサの取得画像から画像特徴を抽出して該画像特徴および前記標準パターンの画像特徴とを比較することを特徴とする。
【0007】
請求項2に記載の全方位視覚センサを用いた位置検出方法において、前記画像特徴の比較を連続DPマッチングの手法により行うことを特徴とする。
【0008】
請求項3の発明は、請求項2に記載の全方位視覚センサを用いた位置検出方法において、前記画像特徴の比較をnon−monotonic連続DPマッチングの手法により行うことを特徴とする。
【0011】
請求項1に記載の画像比較は発明の実施の形態では請求項2に記載のように画像特徴(特徴ベクトルと表現)の形態で行なわれ、位置の検出結果は画像特徴が一致した標準パターン番号v* (t)およびフレーム番号(τ* (t))で表現されている。
【0012】
請求項3に記載の連続DPマッチングの手法は数2式から数14式により表わされている。ただし、従来のDPの手法と一部異なる点は標準パターンの画像特徴を請求項5に記載のように逆順に並び変える処理を含めていることであり、この点については実施の形態では図7,図8を使用した最適パスの説明の記載により表現されている。特に図8のSearch areaで標準パターンの最後部(rτ〜rr )がマッチングの検索対象になっていることからも上記点が当事者に理解されよう。
【0013】
【発明の実施の形態】
以下、図面を参照して本発明の実施の形態を詳細に説明する。
【0014】
一般に、環境モデルは、経路モデルとこれに付随する作業空間や物体の3次元モデルにより記述される。この場合、3次元モデルと視覚情報とのマッチングには、多くの計算量が必要なため、マッチングの前に経路モデル中のおよその位置、つまり「大局的な位置」を求めている。(ここでは「大局位置」は数m程度、「局所位置」は数cm程度の精度の位置とする)。
【0015】
一方、次のような設定を行うことで、大局的な位置推定のみでロボットの視覚誘導が可能であると考える。
【0016】
設定1 画像系列による環境モデルの採用 環境モデルは、図1に示すように、簡単な圧縮処理を行った画像系列そのものによりトポロジー地図として表現する(3次元モデルを用いない)。このとき、画像系列同士の位置関係は不要、つまり、走行情報や内界センサの情報を使用しないこととする。また、「ここは、Aさんの席」「ここは、本棚の前」などの情報はモデル教示時に、画像のフレーム番号に付随して記憶しておく。
【0017】
設定2 超音波センサなどで障害物回避可能 我々は、Nomad200というロボットを用いて超音波センサと赤外線センサによる誘導を行なっている(参考文献6参照。一覧表にて後述)。
【0018】
設定3 誘導時の走行軌跡の精度は低くても良い ロボットが誘導経路から外れたことが視覚情報から分かれば、引き返して別の経路を選択することにより、誘導可能とする。
【0019】
設定4 環境照明の変化は小さい 走行環境は、窓からの光の影響が小さいオフィスなどの屋内とする。
【0020】
このような条件設定のもと、本報告では、大局的位置推定法によりロボットの誘導を行う手法を提案する。ただし、局所位置推定により高精度な軌道制御や物体認識などへの機能拡張が可能なシステム構成を目指す。また、大局的位置を推定するときは、次の2つの処理が重要である。
【0021】
1.特徴抽出 簡単な圧縮処理により、入力画像から特徴ベクトルを求める。
【0022】
2.地図とのマッチング 地図中の位置を推定するため、入力画像とのマッチングを行う。
【0023】
本実施の形態では、特徴抽出法として全方位視覚センサを用いたカメラ方向に依存しない手法を提案し、さらに、マッチング法としてNon−monotonic Continuous Dynamic Programing(Non−monotonic CDP)を用いた手法を提案する。
【0024】
環境撮影時の視野としては、通常のカメラ程度のもの(参考文献2,9参照)と全方位を捉えたもの(panoramic view)とに大別できる。前者の通常の視野を用いる手法では、局所的な位置・方向の推定が困難なだけでなく、ロボットの方向が地図作成時の方向と大きく異なるときは、大局的位置の推定も困難となる。
【0025】
一方、全方位を視野に持つ様々な全方位視覚センサが研究されている(参考文献3参照)。周囲360度の画像を用いれば、局所的な方向や大局的位置を容易に推定できる。特に、山澤ら(参考文献3参照)が提案した双曲面ミラー(図2参照)を用いた全方位視覚センサ(HyperOmni Vision)は、下方視野を含んだ全方位画像を実時間で得るだけでなく、画像の補正も容易である。さらに、前者と異なり、局所的な方向や大局的位置を容易に推定できるという利点がある。
【0026】
大局位置の推定をするため、Zhengら(参考文献4)は、視野として進行方向と異なる方向の垂直スリットを用いた。各位置における情報は、このスリット内の画素値をRGB毎に積算するためカメラ(図2参照)の垂直方向の揺れにロバストである。ただし、カメラの水平方向や回転方向の揺れの影響が懸念される。また、前田ら(参考文献1参照)は、画像サイズが、垂直方向64画素、水平方向(周方向)256画素の全方位画像を用いている。そして、この画像の各水平ラインをフーリエ変換し、この低周波数側の強度成分(64×32画素)を用いて位置推定している。この方法は、ロボットのカメラ方向によらず、位置推定可能であるが記憶すべき情報量が大きい。Bangら(参考文献5参照)も全方位センサを用いてロボット誘導を行なっているが大局的な位置推定手法については述べていない。
【0027】
一方、本出願人は通常のカメラを用い、リダクション画像(平滑化後間引きした画像)による環境モデルを用いた大局的位置推定法を提案し(参考文献9,10参照)、複数の大幅にリダクションした画像を用いることでカメラの揺れに対処できることを示した(参考文献11参照)。そこで、本報告では、図2に示すように、全方位視野を水平にN分割し(N<約10)、各領域の画素値をRGB毎に積算したわずか3N次元の情報を特徴ベクトルとして用いる大局的位置推定法を提案する。(ここで、視野のN分割前にラプラシアンフィルタなどのような等方性のフィルタ処理を行うことも有用である)この方法は、
1.カメラの揺れにロバスト
2.ロボットのカメラ方向に依存しない
3.記憶すべき情報量が少ない
という特徴を持つ。特に、この特徴2により、軌道誤差は大きいもののHillclimb法などによる誘導が可能となる。
【0028】
本手法の有効性を調べるため、全方位視覚センサとして、山澤ら(参考文献3参照)が提案したHyperOmni Vision(HOBI)をNomadに設置し(図3)、実験を行った。オフィス内の3点において次のように条件を変化させてデータを採取し、特徴ベクトルへの影響を調べた。
【0029】
カメラ位置の変化 通路内でNomadを約3m走行させた。
【0030】
カメラの回転 停止させたNomadを回転させた。
【0031】
カメラの揺れ 停止したNomadを人手で揺らし走行時の振動を模擬した。
【0032】
環境の変化(人物通過) 図4に示すように、停止したNomad近傍を人が通り過ぎた。
【0033】
初めに、目視で全方位画像の中心位置と半径を求め、水平方向の分割数Nを1,3,16として同心円状にN等分し各領域内の平均化を行い、3N次元の特徴ベクトルを求めた。次に、基準点における特徴ベクトルs0 =(s0 (1),s0 (2),…,s0 (3N))と条件変化時の特徴ベクトルs=(s(1),s(2),…,s(3N))との距離dを求めその変化を調べた。距離dは、特徴ベクトルの次元数3Nを用い以下の式で求めた。
【0034】
【数1】
Figure 0003641335
【0035】
図5にカメラ位置の変化の影響をプロットした。3≦Nにおいて位置が1m離れると距離dが平均100以上になり、位置弁別能力があることが分かった。ただし、数点において距離dが小さくなり、1地点における情報のみでの位置推定が困難であることが分かった。
【0036】
図6に一例として地点No.1におけるカメラの回転や揺れ、人物の通過により距離dが受ける影響をプロットした。3地点における平均値は、揺れの影響がN=1のとき10、N=16のとき20、人物通過の影響がN=1のとき30、N=16のとき60であった。このことから、カメラ位置の変化が1mの場合の方が人物通過の影響より小さいことが分かった。ただし、実験データ量がまだ少ないため、さらに、評価実験を行なう必要がある。以上の結果から、カメラの回転や揺れ、環境の変化にロバストに位置推定可能であることが示せた。これは、全方位視覚センサが広い視野を持つためと考えられる。
【0037】
地図中に似た画像が含まれていると、1枚の入力画像で位置を推定できない。しかし、この場合でも地図中の複数画像と走行中の複数画像とのマッチングを行うことで位置推定可能である。ここで、ロボットが地図作成時と異なるスピードで走行してもマッチング可能とするために、入力パターンを時間的に伸縮させる非線形マッチングを行なう必要がある。
【0038】
Zheng(参考文献4参照)らは、動的計画、つまりDynamic Programming(DP)を用いて大局的な位置を推定した。この方法では、非線形マッチング可能であるが、始点と終点が既知である必要があるため、ロボットは地図と同じ経路を走行しなくてはならない。また、松本ら(参考文献2参照)は、画像間の距離がある閾値以下な位置を候補とし、ロボットが走行するに従い、この候補位置を絞り込んでいく方法を用いている。
【0039】
一方、Continuous(連続)DP(CDP)(参考文献8参照)によるマッチング法では、最適性原理に基づき最適な位置を推定でき、経路の始点と終点も地図と一致させる必要がない。さらに、本願出願人はロボットが地図の任意の部分区間を走行しても位置推定ができるよう、Reference Interval−Free CDP(RIFCDP)による位置推定法を提案している(参考文献9参照)。
【0040】
RIFCDPは、音声認識で提案された手法(参考文献7参照)であり、入力フレームと同期して地図中の任意の部分区間長のフレーム列をスポッティング的に検出することができるため、地図中の部分区間の走行時や走行速度の変化時でも位置推定可能である。実際、入力パターンに、時間軸方向に対して順方向(monotonic)に1/2倍以上2倍以下の伸縮があってもマッチング可能である。しかし、位置推定の場合、入力パターンの伸縮はロボット停止時や逆方向走行時に、例えば−2倍以上2倍以下となる。(地図作成時の2倍の速度制限がある場合)
従って、位置推定のためには、停止時や逆方向の入力にも対応できる‘non−monotomic CDP’を実現する必要がある。ここでは、この‘non−monotomic CDP’を実現するための一手法を提案し、その有効性を示す。
【0041】
Non−monotonic連続DPについて説明する。一つの標準パターンZは特徴ベクトルzτの系列
【0042】
【数2】
Figure 0003641335
【0043】
で表す。ここで、特徴ベクトルzτはその次元数をNとして
【0044】
【数3】
Figure 0003641335
【0045】
と表す。入力画像からも同様な特徴ベクトル系列が随時得られる。この特徴ベクトル系列をut (0≦t<∞)とし、ut とzτの局所距離d(t,τ)を以下の式で定義する。
【0046】
【数4】
Figure 0003641335
【0047】
また、点(t,τ)を終点とする標準パターンと入力系列との最適マッチングするときの累積距離をS(t,τ)で表す。Non−monotonic連続DPではS(t,τ)を以下のような漸化式で更新する。
【0048】
【数5】
Figure 0003641335
【0049】
【数6】
Figure 0003641335
【0050】
ここで、αは正規化係数(0≦α≦1)であり、式を簡単にするために、以下の2項を仮定した。
【0051】
(仮定1)標準パターンは、特徴ベクトルの1次元系列で表現できる。(本手法は、分岐のある場合や2次元系列に拡張可能)
(仮定2)入力パターンの速度変化は、標準パターンの1倍以下
(仮定2)では、図7(a)のような傾斜パターンを採用している。しかし、(6)式のmの範囲を変化させれば、入力パターンの速度変化に対して様々な制限を付加できる(図7(b))など。
【0052】
(5)(6)式の漸化式を解くと次式のようになる。
【0053】
【数7】
Figure 0003641335
【0054】
ここでp(k)は以下のように定義する。
【0055】
【数8】
Figure 0003641335
【0056】
つまり、Non−monotonic連続DPは、距離(t,τ)を終点として図8の斜線領域内において最小の累積距離となるマッチング経路を求めている。
【0057】
よく知られている「連続DP」では、終点となる点は(t,T)とされてきた。また、それへの最適パスは(t,τ)平面においてt,τについて単調に増加するものとされてきた。これは、傾斜のとり方に依っている。従って、「連続DP」はその最適パスの形成においてmonotonicなものといえるものである。しかし、Non−monotonic CDPでは、図7(a)の様に(t,τ)において(t−1,τ−1),(t−1,τ),(t−1,τ+1)の各点から局所最適パスがとられ、図8の実線のように(t,τ)平面での最適パスがτに関して単調に増加するものとはなっていない。この意味により、ここで提案するものを「Non−monotonic連続DP」と呼ぶこととする。
【0058】
また、(6)式のd(k,p(k))に対する重みをw(k)とすると、重みw(k)の和は、
【0059】
【数9】
Figure 0003641335
【0060】
となり、いかなるtにおいても重みw(k)の和が1に正規化された累積距離が得られることが分かる。これにより、各tにおいて点の集合{(t,τ)|1≦τ<T}における累積距離の集合{S(t,τ)|1≦τ≦T}中での比較が可能であり、また、異なる標準パターンの最短累積距離の比較も可能となる。これは、(6)式の漸化式において、重みの和がα+(1−α)=1となることからも、常に重みの和が正規化されていることが分かる。(このことは、正規化係数αが、時間的に変化する場合でも同様である。)
図9には、tとαを変化させたときの重み係数w(k)の値をプロットした。現時点に近いほど重みw(k)の値が大きくなっている。特に、tがある程度大きい定常状態では、(7)式は
【0061】
【数10】
Figure 0003641335
【0062】
と簡略化できる。このとき、重み係数w(k)の半値幅w1/2 (α)を
【0063】
【数11】
Figure 0003641335
【0064】
と定義するとき、
【0065】
【数12】
Figure 0003641335
【0066】
と、半値幅w1/2 (α)からαを決定できる。表1にαと半値幅w1/2 (α)との例を表記した。
【0067】
【表1】
Figure 0003641335
【0068】
通常、入力される特徴ベクトルの変化が小さい場合は、過去の履歴を多く持つ(w1/2 (α)を大きくする)方が良い。このためには、正規化係数αを、特徴ベクトルの変化に比例するように時間的に変化させれば可能である。一例として次のようにα(t)を可変にすればよい。
【0069】
【数13】
Figure 0003641335
【0070】
ここで、ut ′は入力される特徴ベクトルの微分値、α1 ,α2 は標準パターンの長さTを考慮して定めた定数である。
【0071】
ここで、標準パターンがL個存在するとし、各パターンの累積距離をSv (t,τ)(1≦v≦L)、閾値をhv 、標準パターンのフレーム数をTv とする。Non−monotonic連続DPの出力は、マッチングした標準パターン番号v* (t)とその標準パターン内でマッチングしたフレーム番号(τ* (t))であり、
【0072】
【数14】
Figure 0003641335
【0073】
と表せる。ここで、Argは引数{v(t),τ(t)}を返す関数、nullは空のカテゴリーを表す。
【0074】
実験データは、フロアがカーペット敷きのオフィス内約100mの通路をリモートコントロールでロボットを走行させて採集した。このとき、人はロボットから約2m離れていた。ロボットの速度は最高50cm/秒、2Hzのフレームレートでサイズ120×160の画像に変換した。入力時の走行経路は同じ経路を順方向逆方向に走行し、随時停止している。また、地図作成時の経路より約±30cm程度ずれた経路を走行させた箇所もある。
【0075】
このデータからNon−monotonic CDPを用いて位置推定した結果の一例を図10に示す。N=4の場合について、α=1.0とα=0.2の場合を比較して示してある。図10(a)の太線が実際に走行した経路である。この図から入力画像1枚の情報のみで位置推定した場合(α=1.0の場合)に比べ、約5枚の過去の履歴画像を用いることで(α=0.2のとき)位置推定がロバストになっていることが分かる。また、ロボット停止時や逆走時にも位置推定可能であることが分かる。
【0076】
全方位画像を水平にN分割し(N<10)、各領域の画素値をRGB毎に積算した3N次元の情報を利用した大局的位置推定における特徴抽出法を提案した。また、ロボットの移動速度や方向の制限が少ない、Non−monotonic連続DPを用いたマッチング法を提案し、簡単な実験により本手法の有効性を示した。
【0077】
参考文献
1 T.Maeda,H.Ishiguro and S.Tuji,Memory−Based Navigation using Omni−directional View in Unknown Environment.IPSJ,CV−92,pp.73−80,1995
2 Y.Matsumoto,M.Inaba and H.Inoue,Navigation of A Mobile Robot for Indoor Environments Basen on Scene ImageSequence.MSJ Convention meeting,Vol.A,pp.481−484,1995
3 K.Yamazawa,Y.Yagi and M.Yachida,Omni−directional Imaging with Hyperboloidal Projection.Proc.IEEE/RSJ Int.Conf.Intelligent Robots and Systems,2,pp.1029−1034,1993.
4 J.Y.Zheng and S.Tsuji,Panoramic Representation for Route Recognition by a Mobile robot.International Journal of Computor Vision,9:1,pp.55−76,1992
5 S.W.Bang,W.Yu and M.J.Chung,Sensor−Based Local Homing Using Omni−directional Range and Intensity Sensing System for Indoor Mobile Robot Navigation.Preceedings of the 1995 IEEE/RSJ International Conference on Intelligent Robots and Systems,Vol.2,pp.542−548,1995
6 Andreas Held and Ryuichi Oka,“Sonar Based Map Acquisition and Exploration in an Unknown Office Environment”,International Symposium on Intelligent Robotic Systems 95,Nov.1995.
7 伊藤慶明,木山次郎,岡隆一、“標準パターンの任意区間によるスポッティングのためのReference Interval−free連続DP(RIFCDP)”,信学技報,SP95−34,June 1995.
8 岡隆一,“連続DPを用いた連続音声認識”,音響学会音声研資料,S78−20,pp.145−152(1978−06)
9 小島浩,伊藤慶明,岡隆一,“Reference Interval−free連続DPを利用した移動ロボットの動画像による位置同定”,信学技報,pp.139−144,July 1995.
10 小島浩,伊藤慶明,岡隆一,“Reference Interval−free連続DPを利用した移動ロボットの時系列画像による位置同定システム”,信学投稿中
11 T.Nishimura,H.Kojima,A.Held and R.Oka,Effect of Time−spatial Size ofMotion Image for Localization by using the Spotting Method.ICPR’96
【0078】
【発明の効果】
請求項1の発明では全方位視覚センサの取得画像は撮影位置の全方位(360°)の画像となるので、移動体たとえば移動ロボットがどの方向を向いていても同一の画像が得られる。したがって、上記移動ロボットが標準パターンを取得した経路以外の経路を走行しても、合致画像により、位置検出が可能となる。
【0079】
請求項2の発明では、画像特徴によるパターンマッチングを行うので、比較に用いるデータ量を削減でき、位置検出時間を短縮することができる。
【0080】
請求項3の発明では、標準パターンを採取した特定経路上にある単一地点の位置検出に関しても検出精度が向上する。
【図面の簡単な説明】
【図1】トポロジー地図の一例を示す説明図である。
【図2】特徴抽出処理の内容を示す説明図である。
【図3】全方位視覚センサを設置した移動ロボットの外観を模式的に示す斜視図である。
【図4】撮影した全方向画像の一例をディスプレイ上に示す写真である。
【図5】カメラ位置の変化の影響を示す説明図である。
【図6】ロボットの揺れ、人物の影響を示す説明図である。
【図7】ノンモノトニック連続DPの傾斜パターン例を示す説明図である。
【図8】ノンモノトニック連続DPのパス検索範囲を示す説明図である。
【図9】重み係数の値を示す説明図である。
【図10】実験結果を示す説明図である。
【符号の説明】
1 双曲面ミラー
2 カメラ

Claims (3)

  1. 全方位に視野を持つ全方位視覚センサを移動体に予め搭載しておき、
    前記移動体を特定の経路上を移動させて、前記全方位視覚センサにより該移動体周辺の環境の画像を時系列的に標準パターンとして取得し、
    当該取得した画像と位置を予め関連付けておき、
    前記移動体が任意の経路を移動しているときに前記全方位視覚センサの取得画像と前記標準パターンの画像とをそれら画像の特徴量の形態で比較し、
    一致の画像が得られた場合には一致の前記標準パターンの画像に関連付けられている位置を検出結果とすることを特徴とする全方位視覚センサを用いた位置検出方法。
  2. 請求項1に記載の全方位視覚センサを用いた位置検出方法において、前記移動体が特定経路移動したときに前記全方位視覚センサにより取得した画像からその画像特徴を抽出して該画像特徴を前記標準パターンとなし、前記全方位視覚センサの取得画像と前記標準パターンの画像との比較に際し、前記全方位視覚センサの取得画像から画像特徴を抽出して該画像特徴および前記標準パターンの画像特徴とを比較することを特徴とする全方位視覚センサを用いた位置検出方法。
  3. 請求項2に記載の全方位視覚センサを用いた位置検出方法において、前記画像特徴の比較をnon−monotonic連続DPマッチングの手法により行うことを特徴とする全方位視覚センサを用いた位置検出方法。
JP32283396A 1996-12-03 1996-12-03 全方位視覚センサを用いた位置検出方法 Expired - Fee Related JP3641335B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP32283396A JP3641335B2 (ja) 1996-12-03 1996-12-03 全方位視覚センサを用いた位置検出方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP32283396A JP3641335B2 (ja) 1996-12-03 1996-12-03 全方位視覚センサを用いた位置検出方法

Publications (2)

Publication Number Publication Date
JPH10160463A JPH10160463A (ja) 1998-06-19
JP3641335B2 true JP3641335B2 (ja) 2005-04-20

Family

ID=18148121

Family Applications (1)

Application Number Title Priority Date Filing Date
JP32283396A Expired - Fee Related JP3641335B2 (ja) 1996-12-03 1996-12-03 全方位視覚センサを用いた位置検出方法

Country Status (1)

Country Link
JP (1) JP3641335B2 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003102706A1 (fr) * 2002-05-31 2003-12-11 Fujitsu Limited Robot telecommande et procede d'identification automatique de la position de robot.
KR100966875B1 (ko) 2006-09-26 2010-06-29 삼성전자주식회사 전방위 영상을 이용한 로봇의 위치 결정방법
KR100941418B1 (ko) 2007-03-20 2010-02-11 삼성전자주식회사 이동 로봇의 위치 인식 방법
KR100926760B1 (ko) 2007-12-17 2009-11-16 삼성전자주식회사 이동 로봇의 위치 인식 및 지도 작성 방법
KR100988568B1 (ko) 2008-04-30 2010-10-18 삼성전자주식회사 로봇 및 그 지도작성방법
JP5505723B2 (ja) * 2010-03-31 2014-05-28 アイシン・エィ・ダブリュ株式会社 画像処理システム及び位置測位システム
EP2657644B1 (en) * 2010-12-20 2017-06-28 Nec Corporation Positioning apparatus and positioning method
KR101678203B1 (ko) * 2015-09-08 2016-12-07 (주)에스엠인스트루먼트 전방향 음장을 전방향 영상에 중첩하여 표현하는 mems 음향센서를 이용한 전방향 음향 시각화 장치
JP2018185240A (ja) * 2017-04-26 2018-11-22 大成建設株式会社 位置特定装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0854927A (ja) * 1994-08-10 1996-02-27 Kawasaki Heavy Ind Ltd ランドマークの決定方法および装置
JPH08178654A (ja) * 1994-12-27 1996-07-12 Mitsubishi Electric Corp 標定装置
JPH08322833A (ja) * 1995-05-31 1996-12-10 Shimadzu Corp X線絞り装置

Also Published As

Publication number Publication date
JPH10160463A (ja) 1998-06-19

Similar Documents

Publication Publication Date Title
Winters et al. Omni-directional vision for robot navigation
Gaspar et al. Vision-based navigation and environmental representations with an omnidirectional camera
KR101725060B1 (ko) 그래디언트 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
KR101708659B1 (ko) 이동 로봇의 맵을 업데이트하기 위한 장치 및 그 방법
US7321386B2 (en) Robust stereo-driven video-based surveillance
US8711221B2 (en) Visually tracking an object in real world using 2D appearance and multicue depth estimations
US8467902B2 (en) Method and apparatus for estimating pose of mobile robot using particle filter
JP4692371B2 (ja) 画像処理装置、画像処理方法、画像処理プログラム、および画像処理プログラムを記録した記録媒体、ならびに移動物体検出システム
Anousaki et al. Simultaneous localization and map building for mobile robot navigation
KR101784183B1 (ko) ADoG 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
JP2006220521A (ja) 自己位置計測装置及び自己位置計測方法を実行するためのプログラム
JP3641335B2 (ja) 全方位視覚センサを用いた位置検出方法
CN105606092B (zh) 一种室内机器人定位方法及***
CN111862673A (zh) 基于顶视图的停车场车辆自定位及地图构建方法
Pinto et al. A flow-based motion perception technique for an autonomous robot system
Yagi et al. Iconic memory-based omnidirectional route panorama navigation
Carrera et al. Lightweight SLAM and Navigation with a Multi-Camera Rig.
Winters et al. Omni-directional visual navigation
Ackerman et al. Robot steering with spectral image information
Stratmann Omnidirectional imaging and optical flow
EP4089649A1 (en) Neuromorphic cameras for aircraft
CN114018268B (zh) 室内移动机器人导航方法
Bonev et al. Robot navigation behaviors based on omnidirectional vision and information theory
JP7354528B2 (ja) 自律移動装置、自律移動装置のレンズの汚れ検出方法及びプログラム
Heide et al. Set: Stereo evaluation toolbox for combined performance assessment of camera systems, 3d reconstruction and visual slam

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040611

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040625

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040823

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040914

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041115

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20041115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20041224

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050121

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080128

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090128

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100128

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110128

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120128

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees