JP4802112B2 - トラッキング方法及びトラッキング装置 - Google Patents

トラッキング方法及びトラッキング装置 Download PDF

Info

Publication number
JP4802112B2
JP4802112B2 JP2007029424A JP2007029424A JP4802112B2 JP 4802112 B2 JP4802112 B2 JP 4802112B2 JP 2007029424 A JP2007029424 A JP 2007029424A JP 2007029424 A JP2007029424 A JP 2007029424A JP 4802112 B2 JP4802112 B2 JP 4802112B2
Authority
JP
Japan
Prior art keywords
moving body
image
movement
tracking device
moving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007029424A
Other languages
English (en)
Other versions
JP2008197733A (ja
Inventor
浦 隆 史 園
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2007029424A priority Critical patent/JP4802112B2/ja
Priority to US12/010,765 priority patent/US8180104B2/en
Publication of JP2008197733A publication Critical patent/JP2008197733A/ja
Application granted granted Critical
Publication of JP4802112B2 publication Critical patent/JP4802112B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/02Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
    • G01S5/12Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves by co-ordinating position lines of different shape, e.g. hyperbolic, circular, elliptical or radial
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/02Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
    • G01S5/0294Trajectory determination or predictive filtering, e.g. target tracking or Kalman filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Image Analysis (AREA)

Description

本発明は、トラッキング方法及びトラッキング装置に関する。
近年、ロボットのような自律移動体を、店舗や施設のような一般環境に導入することが検討されている。ロボットを一般環境に導入しようとする場合、ロボットの安全性の確保が問題となる。特に、ロボットと人間とが共存状態にある環境下では、ロボットが、人間を認知し、認知した人間に対して安全動作をとる必要がある。一方、ロボットのスムーズな移動動作等、ロボットの基本性能の確保も重要である。従って、ロボットを一般環境に導入しようとする場合には、安全性の確保と基本性能の確保との間のトレードオフが問題となる。
ロボットは、人間を認知した場合、その場に停止してその人物が遠ざかるのを待つか、その人物との間隔を十分に確保しつつその人物を回避しているのが現状である。しかし、小型店舗や小規模施設のような狭所では、ロボットと人間との間隔を十分に確保するのは難しい。従って、そのような場合、ロボットは、その場に停止して人間をやり過ごすしかない。しかし、このような動作戦略をとるロボットは、作業効率が悪く、実用に耐えられない。
このような動作戦略をとらざるを得ない理由の1つに、ロボットが知り得る他の移動体の移動情報が少ないことが挙げられる。従って、ロボットの一般環境導入を実現するためには、移動体の検出技術、移動体の追跡(トラッキング)技術、移動体の特徴解析技術、ロボットのインタラクション技術等の向上が重要となる。
空間内の移動体を検出するシステムとしては、監視カメラを用いたシステムやIDタグのような発信機を用いたシステムが考えられている。更には、これらのシステムを用いた人間検出、位置推定、移動する人間の動線検出、移動する人間の行動推定等も研究されており、移動体検出方法としては、オプティカルフローを用いた方法等が考えられている。しかしこの方法は、1台の自動車や1個のボールのような剛体単体の動きの検出には有効に働くが、人間のような多リンク構造の物体については、その内部の動きや他の人間との重なり合いの取り扱いが難しく、誤検出が生じやすい。特許文献1には、フローベクトルの時間平均化によって、移動体の特徴を抽出する方法が記載されている。しかしこの方法では、抽出したい特徴までもが時間平均化によって消失してしまう可能性がある。
また、カメラ画像から抽出された点をカメラ画面上から移動平面上へと変換し、物体の移動量推定を移動平面上で行うことも考えられている。特許文献2には、移動平面上での物体の移動量推定を速度ベクトルを用いて行い、当該物体の追跡(トラッキング)を行う方法が記載されている。しかしこの方法では、人間の有意な動作の中に含まれる無意味な動作も検出されてしまう可能性が高い。また、これを防止するよう前述と同様に上記速度ベクトルを単純に時間平均化すると、有意な動作まで消失してしまう可能性が高い。
特許文献1や特許文献2の方法は、客の動向調査や防犯対策を主目的としており、特許文献1や特許文献2の方法では、検出された移動体の位置座標、移動速度、滞在時間等の情報が獲得される。しかし、これらの情報は、店舗内や施設内を自律移動する自律移動体の動作を支援するものとしては十分ではない。また、これらの情報をクライアントのみが一方的に参照するものとすると、自律移動体の移動がクライアントの絶対的視点に基づく移動となってしまう可能性がある。
特開2006−127157号公報 特開2006−33188号公報
本発明は、空間内の移動体を検出し、当該移動体をトラッキングするトラッキング方法及びトラッキング装置に関する新たな提案を行うことを課題とする。
本発明は例えば、空間内の移動体を検出し、検出された前記移動体をトラッキングし、トラッキングする前記移動体の位置判定を行い、前記位置判定により得られた位置データの高周波成分に基づいて、前記移動体についての移動予測を行うことを特徴とするトラッキング方法に係る。
本発明は例えば、空間内の移動体を検出する検出部と、検出された前記移動体をトラッキングするトラッキング部と、トラッキングする前記移動体の位置判定を行う判定部と、前記位置判定により得られた位置データの高周波成分に基づいて、前記移動体についての移動予測を行う予測部とを備えることを特徴とするトラッキング装置に係る。
本発明は、空間内の移動体を検出し、当該移動体をトラッキングするトラッキング方法及びトラッキング装置に関する新たな提案を行うものである。
図1は、トラッキングシステム101のシステム構成図である。当該トラッキングシステム101は、人間111Aやロボット(自律移動体)111B等の様々な移動体111が行き来する空間に構築されている。当該空間としてここでは、平坦な床面を有し、人間やショッピングカートやロボットが行き来する店舗フロアを想定する。
図1のトラッキングシステム101には、空間内の移動体111を検出し、当該移動体111をトラッキングするトラッキング装置121が配置されている。当該トラッキング装置121は、入力部131と、記憶部132と、出力部133と、移動体検出部141と、位置判定部142と、動作特徴量抽出部143とを備える。移動体検出部141は、空間内の移動体111を検出し、当該移動体111をトラッキングするブロックであり、検出部及びトラッキング部の一例に相当する。位置判定部142は、当該移動体111の位置判定を行うブロックであり、判定部及び予測部の一例に相当する。動作特徴量抽出部143は、当該移動体111の動作特徴量を抽出するブロックであり、抽出部、フィルタリング部、及び区別部の一例に相当する。
入力部131には、空間内の移動体111を検出するための情報が入力される。移動体検出部141は、当該情報を利用して空間内の移動体111を検出・追跡し、位置判定部142は、当該移動体111の位置を判定し、動作特徴量抽出部143は、当該移動体111の動作特徴量を抽出する。位置の判定結果や動作特徴量の抽出結果は、記憶部132に記憶され、次の移動体検出の際に利用される。出力部133からは、当該移動体111についての移動予測の予測結果等が出力される。
図1のトラッキングシステム101には、空間内の移動体111を撮影するための1台以上のカメラ151と、空間内の移動体111から発信された信号を受信するための1本以上のアンテナ152が設置されている。トラッキング装置121は、各カメラ151により撮影された画像や各アンテナ152により受信された信号を、入力部131を介して取得可能である。これらのカメラ151やアンテナ152はそれぞれ、トラッキング装置121に装備されていてもよいし、店舗内に設置されていてもよい。
以下、トラッキング装置121が実行するトラッキング方法について、画像を利用した位置判定、信号を利用した位置判定、位置判定結果を利用した移動予測の順に説明する。
(1)画像を利用した位置判定
トラッキング装置121には、カメラ画像情報が入力される。トラッキング装置121には、カメラ画角内の画像が、画素単位に分割された画像情報としてある周期間隔で入力される。当該画像は、静止画像でも動画でもよい。トラッキング装置121には、空間内の移動体111を撮影した画像が入力される。トラッキング装置121は、当該画像から移動体111を検出し、当該移動体111が検出可能領域(カメラ視野角)内に存在する間、当該移動体111をトラッキングする。画像を利用した移動体検出には、他の方法による移動体検出と比べて、移動体111の形状や模様や色彩といった移動体111の様々な情報を獲得可能であるという利点がある。
本実施例では、図2のように、1台以上の広角なカメラ151が、店舗内の天井に設置されている。ここでは特に、光軸が鉛直下向きに向いた複数台のカメラ151Aと、光軸が鉛直下向きから傾いた1台以上のカメラ151Bが設置されている。カメラ151Aはそれぞれ、互いの視野がなるべく重複しないように配置される。カメラ151Bは、鉛直下向きからの傾きθが0度<θ<90度となるように配置される。
トラッキング装置121は、各カメラ151の店舗内での設置位置,高さ,向き等を、ユーザが既知情報としてトラッキング装置121に入力するためのユーザインタフェースを具備する。当該ユーザインタフェースの例としては、キーボードやマウスやモニタ等が挙げられる。当該既知情報は、トラッキング装置121のストレージに保存される。当該ストレージの例としては、ハードディスクやフラッシュメモリ等が挙げられる。ユーザが設定可能な既知情報の例としては、各カメラ151の設置座標や姿勢,各カメラ151のレンズの歪みの補正値や画角の広さ,店舗内の壁や柱の位置や高さや大きさといった店舗構造情報等が挙げられる。
トラッキング装置121に既知情報を入力するユーザの具体例としては、トラッキングシステム101のシステム管理者が挙げられる。トラッキング装置121は、入力されて保存された店舗構造情報によって、当該トラッキング装置121が設置されている店舗の構造を認識することができる。更に、トラッキング装置121は、各カメラ151の設置データやレンズデータによって、各画像が、どのカメラ151が店舗内のどの部分を撮影した画像なのかを把握することができる。
トラッキング装置121は、カメラ151の設置後、差分処理用の基準画像である基本背景画像を取得することができる。当該基本背景画像はここでは、店舗内の照明の点灯状況や商品の陳列状況等を営業時の状態にしたうえで、人間111Aやロボット111B等の移動体111の行き来が全く無い状態で撮影されるものとする。撮影された基本背景画像は、差分処理用の基準画像として記録される。
店舗の通常営業時において、トラッキング装置121には、カメラ151により撮影された画像がある周期間隔で入力される。トラッキング装置121は、当該画像に対応する基本背景画像を再生し、当該画像と当該基本背景画像との差分処理(相関比較)を行う。図3Aと図3Bに、上記画像と上記基本背景画像の具体例を示す。当該差分処理により、図3Cのように、人間111Aやロボット111B等の移動体111が上記画像から検出される。トラッキング装置121は、図3Dのように、上記画像と上記基本背景画像との相関値が閾値以下の領域(不一致領域)を、移動体111が存在する画像領域(移動体検出領域)として検出する。
トラッキング装置121は、図4Aのように、差分処理により検出された移動体111に関して、テクスチャ上の幾何学模様に特徴点を設ける。更に、トラッキング装置121は、当該移動体111の動作に関する特徴量である動作特徴量(例えば速度や加速度)を抽出する。トラッキング装置121はここでは、上記移動体111の動作特徴量として、図4Bのように、上記特徴点の時間連続画像上における運動、即ち、上記移動体111のオプティカルフローを観測・抽出する。
更に、トラッキング装置121は、図4Cのように、当該オプティカルフローのフローベクトルの角度に基づいて、各移動体111を区別する。近接する一の特徴点と他の特徴点に関して、前者の特徴点のフローベクトルと後者の特徴点のフローベクトルとの角度がある閾値以内に収まる場合、前者の特徴点と後者の特徴点は同じ移動体111に属すると判断される。逆に、当該角度が当該閾値以内に収まらない場合には、前者の特徴点と後者の特徴点は異なる移動体111に属すると判断される。このようにして、同じ画像内の異なる移動体111同士が区別される。なお、同じ移動体検出領域に属する特徴点同士が異なる移動体111に属すると判断された場合、当該移動体検出領域は移動体111ごとに分割されることになり、分割により生じた各移動体検出領域はそれぞれ異なる識別名称で管理されることになる。
本実施例では特に、トラッキング装置121が、周波数フィルタ161(図1)により上記オプティカルフローのフローベクトルをフィルタリングする。図4D,図4Eには、フィルタリング前のあるフローベクトルのX成分及びY成分の時間変動が示されている。X方向及びY方向はここでは、画像の横方向及び縦方向に相当する。図4Dのフローベクトルは、人間の腕の特徴点のフローベクトルに相当し、図4Eのフローベクトルは、人間の胴の特徴点のフローベクトルに相当する。
周波数フィルタ161はここでは、カットオフ周波数ωのローパスフィルタである。当該カットオフ周波数ωは、人間の店舗内での通常移動に含まれると考えられる重心の周波数成分ωよりも大きく、人間の歩行時や動作時の腕の振りや脚の動きのピッチ動作に含まれると考えられる振動周波数成分ωよりも小さい周波数とする。即ち、ω<ω<ωである。このように、周波数フィルタ161は、人間の動作周波数を考慮したローパスフィルタとなっている。
ωの値の例としては、0.1Hzから1.0Hz程度の周波数が挙げられる。ωの値の例としては、2.0Hzから5.0Hz程度の周波数が挙げられる。従って、ωの値の例としては、0.1Hzから5.0Hz程度、好ましくは、1.0Hzから2.0Hz程度の周波数が挙げられる。ローパスフィルタ161のフィルタリング作用は、式(1)のように表される。Finはフィルタリング前のフローベクトル、Foutはフィルタリング後のフローベクトル、L(ω)はローパスフィルタ161を表す。
Figure 0004802112
図4F,図4Gに、フィルタリング後の上記フローベクトルのX成分及びY成分の時間変動を示す。周波数フィルタ161によって、フローベクトルの高周波成分が除去された事が解る。本実施例において、トラッキング装置121は、周波数フィルタ161によりフィルタリングされたオプティカルフローに基づいて、各移動体111を区別する。すなわち、本実施例では、周波数フィルタ161によってフィルタリングされたオプティカルフローに基づいて、同じ移動体111の部分同士が同じ移動体111と認識され、異なる移動体111の部分同士が異なる移動体111と認識される。これによって、本実施例では、一人の人間の胴体(低周波成分)と手足(高周波成分)が異なる移動体111として誤認識されてしまうことが抑制されると共に、複数の移動体111の区別が実現される。前者の効果は主に、カットオフ周波数より高周波の成分の除去に起因し、後者の効果は主に、カットオフ周波数より低周波の成分の残存に起因する。各移動体111の区別方法は上述の通りであり、各移動体111の区別は、上記オプティカルフローのフローベクトルの角度に基づいて行われる。
ここでの各移動体111の区別は、完璧である必要はない。実際、ここで1つの移動体と認識された移動体111は、後述のように、一人の人間に相当する場合もあれば、複数の人間の集団に相当する場合もある。前者の場合と後者の場合の判別については、後述のマッチング処理により実現される。
また、本実施例では、カメラ151により撮影された画像についても、周波数フィルタによるフィルタリングが行われる。トラッキング装置121は、上記の周波数ωよりも低いカットオフ周波数ωを有するローパスフィルタ162(図1)により、当該画像をフィルタリングする。そして、トラッキング装置121は、当該画像をローパスフィルタ162によりフィルタリングして得られた画像と、上記の基本背景画像とを重ね合わせることで、上記の基本背景画像を更新する。これにより、商品陳列状況の変化等の背景変動に強い背景除去処理(図3C)が実現される。
本実施例では、上記基本背景画像と上記画像とを所定の重み付けで重ね合わせる。具体的には、式(2)のように、上記基本背景画像の各画素値成分と上記画像の各画素値成分とを、1−W:Wの割合で足し合わせる。Gnowは現在の画像、Goldは現在使用されている更新前の基本背景画像、Gnewは次周期で使用する更新後の基本背景画像、L(ω)はローパスフィルタ162を表す。W(時間重み付けの重み係数)については0<W<1が成り立ち、ω(カットオフ周波数)についてはω<ωが成り立つ。こうして、トラッキング装置121は、基本背景画像を繰り返し更新して行く。
Figure 0004802112
また、トラッキング装置121は、移動体が検出された画像領域(移動体検出領域、図3D)について、2値化やエッジ抽出(輪郭抽出)等の画像処理を実行する。画像処理前の画像領域を図5Aに示し、画像処理後の画像領域を図5Bに示す。
次に、トラッキング装置121は、当該画像領域と照合処理用のサンプル画像との照合処理(マッチング処理)に先立ち、当該画像領域について周波数フィルタによるフィルタリングを行う。トラッキング装置121は、サンプル画像中の人間の輪郭線の最大周波数成分をカットオフ周波数とするローパスフィルタ163(図1)により、上記画像領域をフィルタリングする。これにより、図5Cのように、エッジ抽出がなされた上記画像領域についてのノイズ除去がなされる。更に、トラッキング装置121は、図5Dのように、当該画像領域のサイズの正規化を行う。これにより、当該画像領域のサイズが、サンプル画像と同じサイズに拡大又は縮小される。
そして、トラッキング装置121は、上記画像領域と上記サンプル画像とのマッチング処理を実行する。当該サンプル画像としては、人間の形状的特徴を表した輪郭線を有するようなテンプレート(人間形状特徴テンプレート)が使用される。従って、トラッキング装置121は、上記画像領域と上記サンプル画像とのマッチング処理によって、上記画像領域中の移動体111が一人の人間であるかどうかを判断することができる。
トラッキング装置121には予め、人間形状特徴データベース(図5E)として、多数のサンプル画像が用意されている。トラッキング装置121は、各画像領域について、少なくとも1種類のサンプル画像とのマッチング処理(相関比較)を行う。そして、いずれかのサンプル画像との相関値が閾値以上であれば、当該画像領域中の移動体111は一人の人間であると認識される。
このマッチング処理の処理フローを、図6に示した。トラッキング装置121は、ある画像領域について、あるサンプル画像(テンプレート)とのマッチング処理を行う(S101)。当該画像領域と当該サンプル画像との相関値が閾値以上である場合(S102)、当該画像領域中の移動体111は一人の人間であると判断される(S103)。
S101のようなマッチング処理が、使用対象のサンプル画像(テンプレート)がなくなるまで繰り返される(S111,112)。そして、いずれかのサンプル画像との相関値が閾値以上であれば(S102)、上記画像領域中の移動体111が一人の人間であるとの判断が得られる(S103)。一方、全てのサンプル画像との相関値が閾値未満である場合には、上記画像領域中の移動体111が一人の人間であるとの判断は得られず、S121に処理が進む。S121以降の処理については後述する。
上記マッチング処理により、上記画像領域中の移動体111が一人の人間であると判断された場合、トラッキング装置121は、当該移動体111に対して、当該移動体111に固有の識別IDを与える。トラッキング装置121は更に、当該人物の各部位の絶対色情報や近傍との相対的な色関係等の色特徴、当該人物に係る画像の画像サイズや全画像内における座標等の幾何学特徴、当該人物に係る画像の各特徴点の座標等のテクスチャ特徴等、当該人物(移動体111)を特徴付ける特徴量である人物特徴量を取得する。ここで例示した色特徴、幾何学特徴、テクスチャ特徴等の人物特徴量は、いずれも上記の画像や画像領域からトラッキング装置121が画像処理や解析処理により取得可能である。
そして、トラッキング装置121は、上記移動体111について取得された人物特徴量を、上記移動体111に関連付けて管理する。具体的には、上記移動体111の人物特徴量が、上記移動体111の識別IDに関連付けられて記憶され管理される事になる。そして、当該人物特徴量は、移動体111のトラッキング用の識別情報として使用される事になる。即ち、トラッキング装置121は、新たに検出された移動体の人物特徴量と既に記憶されている人物特徴量との相関値がある閾値を越える場合に、検出された移動体と記憶されている移動体とを同一の移動体と判断する。検出された移動体には、記憶されている移動体と同一の識別IDが与えられる。本実施例では、このような移動体識別によって、同一移動体のトラッキングが実行されている。その後、当該人物特徴量は、重み関数及び時間依存の忘却係数により更新される。
一方、上記マッチング処理において、上記画像領域中の移動体111が一人の人間であるとの判断に至らなかった場合、トラッキング装置121は、図5Dの正規化前の当該画像領域の画像サイズを算出する(図6のS121)。そして、トラッキング装置121は、当該画像サイズが閾値以上であるかどうかを判断する(図6のS122)。これによって、トラッキング装置121は、上記画像領域中の移動体111が複数の人間の集団であるかどうかを判断することができる。
上記画像サイズが閾値以上である場合、トラッキング装置121は、上記移動体111を複数の人間の集団と判断し(S123)、上記画像サイズが閾値未満である場合、トラッキング装置121は、上記移動体111を一個の未知移動体と判断する(S124)。当該閾値は、標準的な人間一人あたりのサイズに相当する画像サイズに設定するが、当該画像サイズは、カメラの設置状況や画像領域のカメラ画面内における検出位置等に応じて変化する。
例えば、図2のカメラ151Bのように傾いたカメラでは、カメラ画面内の下方にある移動体ほど近くにあり、画面には大きく映り、カメラ画面内の上方にある移動体ほど遠くにあり、画面には小さく映る。従ってこの場合には、捉えられた移動体の高さに応じて、閾値を小さくする。閾値の変更比率については、画像の遠近法的性質に基づいて設定可能である。
同様に、図2のカメラ151Aのように真下を向いたカメラでは、カメラ画面内の中央にある移動体ほど近くにあり、画面には大きく映り、カメラ画面内の周辺にある移動体ほど遠くにあり、画面には小さく映る。従ってこの場合には、捉えられた移動体の画面中心からの距離に応じて、閾値を小さくする。先程と同様、閾値の変更比率については、画像の遠近法的性質に基づいて設定可能である。
トラッキング装置121は、上記移動体111が複数の人間の集団と判断された場合、当該集団の密集の度合を表す密集度として、S121で算出した画像サイズとS122で使用した閾値との比を算出する。当該密集度は、その時刻(画像領域の検出時刻)のその場所(画像領域の検出位置)の状態量として記憶され管理される。当該密集度は例えば、移動体111の人物特徴量(この場合は集団特徴量)として使用可能である。
また、トラッキング装置121は、移動体111の位置を、当該移動体111が検出された画像領域(移動体検出領域,図3D)を利用して判定する。トラッキング装置121は、一人の人間であると判断された移動体111の位置を判定する場合には、当該移動体111の移動体検出領域内において代表点を1つ決定し、当該代表点を当該移動体111の現在位置と判定する。
図7Aは、図2のカメラ151B(斜め見下ろしカメラ)により撮影された画像の一例である。当該画像内の画像領域については、当該画像領域内において当該画像の下端Bに最も近い点が、当該画像領域の代表点として決定される。図7Aには、各画像領域Rの代表点Pが示されている。
図8Aは、図2のカメラ151A(垂直見下ろしカメラ)により撮影された画像の一例である。当該画像内の画像領域については、当該画像領域内において当該画像の中心Aに最も近い点が、当該画像領域の代表点として決定される。図8Aには、各画像領域Rの代表点Pが示されている。
図7Aや図8Aの方法によれば、移動体111の足元に相当する点が、画像領域の代表点に決定される。図7Aの画像では、画像の下端B寄りに各移動体111の足元があり、図8Aの画像では、画像の中心A寄りに各移動体111の足元があるからである。本実施例では、移動体111同士の接近や衝突等の危険を問題としているので、各移動体111の位置を各移動体111の足元の位置で代表させることは適切であると考えられる。
なお、1つの画像領域内に、画像の下端Bに最も近い点や画像の中心Aに最も近い点が複数存在する場合には、これらの点の中で、当該画像領域の重心に最も近い点が代表点として決定される。画像領域の重心に最も近い点を代表点とする代わりに、画像領域の中心線に最も近い点を代表点としても構わない。
また、図8Aの方法においては、位置判定の前に、広角レンズの画像ひずみを補正することが望ましい。また、図8Aの方法において、画像の中心Aと重なる画像領域や画像の中心Aに近い画像領域については、当該画像領域の重心点を当該画像領域の代表点としてもよい。
トラッキング装置121は、カメラの設置位置、姿勢、レンズ特性等を考慮しつつ、各移動体111の位置の判定結果に基づいて、図7Bや図8Bのような2次元仮想移動平面マップを作成する。即ち、図7Aの画面から図7Bのマップへの座標変換F、図8Aの画面から図8Bのマップへの座標変換Fが実行される。
なお、トラッキング装置121は、各移動体111の位置や密集度を、その時刻(画像領域の検出時刻)のその場所(画像領域の検出位置)の状態量として、時系列順に記憶し管理する。
なお、本実施例では、ロボットやショッピングカートに発光体やマーカを設けておいてもよい。これにより、発光体の発光信号やマーカの色,模様,幾何学模様等が、カメラによって捉えられる事になる。これにより、移動体検出処理が容易化される。
以上、本節では画像を利用した位置判定について説明したが、次節では信号を利用した位置判定について説明する。
(2)信号を利用した位置判定
図1のトラッキングシステム101には、各移動体111の発信機から発信された電波信号を受信するための受信機が設けられている。トラッキング装置121では、当該電波信号の信号コードを解析することや、当該電波信号の強度を計測することが可能である。トラッキングシステム101には、図1のように、上記の電波信号を受信するための1本以上のアンテナ152が設けられている。トラッキング装置121では、カメラ151の場合と同様、各アンテナ152の設置位置等をユーザが既知情報として入力することが可能である。トラッキング装置121は、空間内の移動体111を、当該移動体111から発信された電波信号を利用して検出する。そしてトラッキング装置121は、当該移動体111が検出可能領域(電波信号を受信可能な領域)内に存在する間、当該移動体111をトラッキングする。信号を利用した移動体検出には、他の方法による移動体検出と比較して、移動体111の識別を可能にする情報を当該信号に含ませる事ができるという利点がある。当該情報の例としては、後述のIDコードが挙げられる。
本実施例では、店舗内の移動体111のうち、ロボットとショッピングカートに発信機が設けられている。また、本実施例では、各移動体111に、移動体111毎に異なるIDコード(移動体識別コード)が割り振られている。移動体111から発信される電波信号には、当該移動体111のIDコードが付加される。当該IDコードは、移動体111のトラッキング用の識別情報として使用されることになる。トラッキング装置121は、当該IDコードに基づいて移動体111と電波信号とを対応させ、移動体111をトラッキングする。
トラッキング装置121は、受信した電波信号の強度に基づき、図7Bや図8Bのような2次元仮想移動平面マップを作成する。具体的には、トラッキング装置121は先ず、電波信号を受信したアンテナ152の位置を中心とし、受信した電波信号の強度を半径とする円を描く。トラッキング装置121は次に、上記中心から上記電波信号の受信方向に向かう直線を描き、上記円と上記直線との交点を移動体111の位置と判定する。トラッキング装置121は、このような位置判定結果を利用して、2次元仮想移動平面マップを作成する。
なお、信号強度と距離との関係は、予め実験的に決定しておく事が可能である。また、個々のアンテナ152について信号強度と距離との関係を予め実験により詳細に測定しておく事で、理想的な同心円状の強度分布からのずれ補正を行う事も可能になる。
前節では画像を利用した位置判定について説明し、本節では信号を利用した位置判定について説明したが、本実施例のトラッキング装置121は、これらの位置判定方法を併用してもよい。
(3)位置判定結果を利用した移動予測
図1のトラッキング装置121は、トラッキング対象の各移動体111の位置判定により、各移動体111の位置データを得る事ができる。第1節で説明した位置判定(画像を利用した位置判定)によれば、各移動体111の位置データとして、上述のように、各移動体111の代表点の座標データが得られる。第2節で説明した位置判定(信号を利用した位置判定)によれば、各移動体111の位置データとして、上述のように、各移動体111から信号が発信された位置の座標データが得られる。本実施例において、図1のトラッキング装置121は、これらのいずれかの位置判定により得られた位置データに基づいて、各移動体111についての移動予測を行う。ここでは、当該位置データの高周波成分や低周波成分に基づいて、当該移動予測が行われる。
トラッキング装置121は、移動予測を行う際には先ず、移動体111の位置データの時系列データを取得する。具体的には、移動体111のX座標及びY座標の時系列データが取得される。当該X座標及びY座標の軸方向はそれぞれ、2次元仮想移動平面マップにおけるX座標及びY座標の軸方向とする。
トラッキング装置121は、次に、ハイパスフィルタ164(図1)による上記時系列データのフィルタリングと、ローパスフィルタ165(図1)による上記時系列データのフィルタリングとを行う。これらの周波数フィルタ164及び165は共に、人間の一般的な歩行動作に含まれる最大周波数成分(ノイズ成分は除く)をカットオフ周波数ωとする周波数フィルタである。即ち、ハイパスフィルタ164のカットオフ周波数ωと、ローパスフィルタ165のカットオフ周波数ωは、同じ周波数となっている。ハイパスフィルタ164はここでは、逐次計算型(1次遅れ型)のハイパスフィルタであり、ローパスフィルタ165はここでは、逐次計算型(1次遅れ型)のローパスフィルタである。
本実施例において、トラッキング装置121は、上記時系列データ(位置データ)をハイパスフィルタ164によりフィルタリングして得られたハイパス時系列データ(ハイパス位置データ)と、上記時系列データ(位置データ)をローパスフィルタ165によりフィルタリングして得られたローパス時系列データ(ローパス位置データ)とに基づいて、各移動体111についての移動予測を行う。当該移動予測は、ハイパス時系列データ及びローパス時系列データそのものに基づいて行われてもよいし、後述するように、ハイパス時系列データ及びローパス時系列データの派生データに基づいて行われてもよい。以下、当該移動予測についてより詳細に説明する。
ハイパス位置データとローパス位置データは共に、X成分とY成分からなる2次元ベクトルである。トラッキング装置121は、移動体111の移動に関する特徴量である移動特徴量(例えば速度や加速度)として、式(3)のような局所移動速度ベクトルVmicroと、式(4)のような大域移動速度ベクトルVmacroとを算出する。Pは移動体111の位置データ、H(ω)はハイパスフィルタ164、L(ω)はローパスフィルタ165を表す。
Figure 0004802112
Figure 0004802112
局所移動速度ベクトルVmicroは、ハイパス位置データH(ω)Pの微分量であり、移動体111の微視的な移動特徴を示す移動特徴量である。一方、大域移動速度ベクトルVmacroは、ローパス位置データL(ω)Pの微分量であり、移動体111の巨視的な移動特徴を示す移動特徴量である。これらの速度ベクトルは、位置データの時間微分量であるため、これらの速度ベクトルの算出には、位置データの時系列データが必要となる。トラッキング装置121は、算出された大域移動速度ベクトルVmacro及び局所移動速度ベクトルVmicroを、位置データと同様に、移動体111に関連付けて時系列順に記憶し管理する。
図9に、大域移動速度ベクトルVmacroに対して局所移動速度ベクトルVmicroがなす角度θを示す。当該角度θは、巨視的動作を行う移動体111がある瞬間に行った微視的動作による移動方向とみなす事ができる。当該角度θを、局所移動方位角と称する。トラッキング装置121は、当該角度θを算出し、当該角度θを、移動体111の移動特徴量として、移動体111に関連付けて時系列順に記憶し管理する。当該局所移動方位角θの算出式は、下記の式(5)のようになる。
Figure 0004802112
トラッキング装置121は更に、局所移動速度ベクトルVmicroの絶対値に所定の重み係数Wを掛けた値Tを算出する。このTを、大域移動速度方向から相対方位角θの方向の方位瞬時移動量と称する。当該方位瞬時移動量Tの算出式は、下記の式(6)のようになる。トラッキング装置121は、当該方位瞬時移動量Tを、移動体111の移動特徴量として、移動体111に関連付けて時系列順に記憶し管理する。
Figure 0004802112
トラッキング装置121は更に、方位瞬時移動量Tと時間依存の忘却係数D(t)との積を時間積分した値P(θ)を算出する。このP(θ)を、大域移動速度方向から相対方位角θの方向の局所移動予測域と称する。当該局所移動予測域P(θ)の算出式は、下記の式(7)のようになる。当該局所移動予測域P(θ)を、図10に示す。トラッキング装置121は、当該局所移動予測域P(θ)を、移動体111の移動特徴量として、移動体111に関連付けて記憶し管理する。
Figure 0004802112
トラッキング装置121は更に、局所移動予測域P(θ)を相対方位角θの全周にわたって積分した値Uを算出する。このUを、移動体111の煩雑移動度と称する。当該煩雑移動度Uの算出式は、下記の式(8)のようになる。トラッキング装置121は、当該煩雑移動度Uを、移動体111の移動特徴量として、移動体111に関連付けて記憶し管理する。
Figure 0004802112
煩雑移動度Uからは、移動体111が大きな移動の流れとは別の方向に突然動く可能性が解る。煩雑移動度Uが大きければ、移動体111が突然別の方向に動く可能性が高く、当該移動体111の近くの他の移動体111にとって危険が大きい。逆に煩雑移動度Uが小さければ、移動体111が突然別の方向に動く可能性は低く、当該移動体111の近くの他の移動体111にとって危険は小さい。このように、煩雑移動度Uは、移動体111が突然別の方向に動く可能性の高さを表すパラメータとなっている。
従って、トラッキング装置121では、煩雑移動度Uが導出された結果、移動体111が突然別の方向に動く可能性がどれくらいあるかという移動予測の予測結果が得られた事になる。即ち、トラッキング装置121は、煩雑移動度Uを導出するという形で、移動体111が突然別の方向に動く可能性がどれくらいあるかを予測するという形の移動予測を行っている。当該移動予測により得られた煩雑移動度Uという予測データからは、移動体111が突然別の方向に動く可能性の高さを知る事ができる。
トラッキング装置121は、煩雑移動度Uを算出するための位置データとして、現在の位置データと、その直前の数個分の位置データ(即ち過去の位置データ)とを利用する。これにより、トラッキング装置121は、移動体111の次回の移動(即ち未来の移動)についての予測を行う。過去の位置データとしては、記憶部132(図1)に時系列順に記憶されている位置データが利用される。過去の位置データの利用個数は、何個でも構わない。ただし、本実施例では、過去の位置データの利用個数を数個としているので、ハイパスフィルタ164とローパスフィルタ165として、逐次計算型(1次遅れ型)のハイパスフィルタとローパスフィルタが採用されている。
トラッキング装置121は、店舗内の各移動体111の煩雑移動度Uを、店舗内のロボット111Bに対して通知する。そして、ロボット111Bは、他の移動体111の近傍を通過する際に、当該移動体111の煩雑移動度Uを参照する。そして、ロボット111Bは、当該煩雑移動度Uが大きい場合には、当該移動体111の近傍を通過する際の当該移動体111との間隔を大きくとり、当該移動体111との衝突の危険に対処する。逆にロボット111Bは、当該煩雑移動度Uが小さい場合には、当該移動体111の近傍を通過する際の当該移動体111との間隔を大きくとる必要はなく、移動効率を妨げられずに済む。
このように、本実施例では、移動予測によって得られた予測データのロボット111Bへの通知により、ロボット111Bと他の移動体111との接近や衝突等の危険を、ロボット111Bの移動効率を確保しつつ抑制する事が可能になる。トラッキング装置121からロボット111Bへの通知方法の例としては、出力部133(図1)による無線通信が挙げられる。
トラッキング装置121は、以上の移動予測とは別の方式の移動予測を行ってもよい。ここでは、煩雑移動度Uに代わる移動特徴量の一例として、移動予測領域S(θ)を取り上げる。
移動予測領域S(θ)は、図11のように、大域移動速度方向で最大となり、当該方向を中心として両側に開くように設けられる。移動予測領域S(θ)は、大域移動速度方向からの角度θが大きくなるほど、その方向成分の絶対値が小さくなるように設けられる。
トラッキング装置121は、この移動予測領域S(θ)を、移動体探索用の情報として利用する。移動体探索処理に関するフローチャートを、図12に示す。トラッキング装置121は、移動体検出の際に、前回認識されていた移動体111の移動予測領域S(θ)内で移動体111を検出した場合(S201)、認識されていた移動体111の特徴量と検出された移動体111の特徴量との相関比較を優先的に行う(S202)。両者は、同じ移動体111である可能性が高いからである。両者の特徴量の相関値が閾値以上である場合には(S203)、両者は同じ移動体111であると判断される(S204)。両者の特徴量の相関値が閾値未満である場合には、当該閾値が許容閾値未満でない限り(S211)、上記相関比較を閾値を下げて再度行う(S212)。
トラッキング装置121は、以上の移動体探索処理において、移動予測領域S(θ)に代わり、これを局所移動予測域P(θ)により補正した補正移動予測領域S’(θ)を利用してもよい。これにより、個々の移動体111の移動特徴をより考慮した移動体探索処理が実現される。当該補正移動予測領域S’(θ)の算出式は、式(9)のようになる。当該補正移動予測領域S’(θ)を、図13に示す。
Figure 0004802112
トラッキング装置121は、各移動体111の位置判定で得られた位置データの時系列データを利用して、各移動体111の移動の様子を図1のモニタ171上にグラフィカルに表示する事ができる。この表示形式としては、図7Bや図8Bのような2次元仮想移動平面を表示し、各移動体111を表すシンボル(例えば「点」)を、各移動体111の位置データから求まる位置に表示するような表示形式が考えられる。本システムの監視員は、このモニタ171を監視する事で、店舗内の客やロボットやショッピングカートの動向をグラフィカルに把握する事ができる。
この際、トラッキング装置121は、算出された局所移動速度ベクトルVmicro、大域移動速度ベクトルVmacro、移動煩雑度U、局所移動予測域P(θ)、移動予測領域S(θ)等を、各移動体111の移動の様子と共に図1のモニタ171上に表示する事ができる。これらの表示形式は、単なる数値表示でもよいし、上記と同様のグラフィカルな表示でもよい。グラフィカルな表示の例としては、図10や図11のような形での表示が挙げられる。本システムの監視員は、このモニタ171を監視する事で、店舗内の各移動体111がどのように移動するかを予測する事ができる。これにより例えば、当該監視員の行動により、客とロボットとの衝突を未然に防ぐ事が可能になる。
トラッキング装置121は、各移動体111の移動の様子や上記の移動特徴量(予測データ)を、ここではローカルのユーザインタフェース(トラッキング装置121のモニタ171)に出力しているが、リモートのユーザインタフェースに出力しても構わない。
トラッキング装置121は、各移動体111の位置判定で得られた位置データの時系列データや、算出された局所移動速度ベクトルVmicro、大域移動速度ベクトルVmacro、移動煩雑度U、局所移動予測域P(θ)、移動予測領域S(θ)等を、通信インタフェースを介して外部に出力する事ができる。上述したロボットへの通知やリモートユーザインタフェースへの出力は、それぞれこの一例に相当する。当該通信インタフェースの例としては、有線LANインタフェース、無線LANインタフェース、USBインタフェース等が挙げられる。上記の位置データや移動特徴量(予測データ)が出力される通信経路の例として、図1にネットワーク172を示す。
店舗内を自律移動する各ロボット111Bには、特定の明滅パターンの発光を繰り返す複数の赤外光発光装置と、特定の色と模様で描かれた複数のマーカが設けられている。各ロボット111Bには、該ロボット111Bを店舗内のどの方向からでも確認できるように、十分な数の赤外光発光装置とマーカが設けられている。トラッキング装置121は、各ロボット111Bの発光パターン及びマーカ特徴を、既知情報として所持している。トラッキング装置121は、ある発光パターン又はマーカ特徴を検知すると、対応するロボット111Bを特定すると共に、当該ロボット111Bの移動動作への介入が可能であると判断する。なお、当該動作介入の際の介入指令や介入手法等については、事前に両者間で整合性が取られているものを使用する事が想定されている。
以下、トラッキング装置121により実行される介入処理について、図14に基づいて説明する。図14は、介入処理に関するフローチャートである。
トラッキング装置121は、記憶されている位置データを利用して、位置が互いに近い移動体111同士を選び出し、これらを移動体ペアとして管理する(S301)。そして、トラッキング装置111は、これらの移動体111の間の距離が閾値以下となり(S302)、更に、これらの移動体111の大域移動速度ベクトルが互いに交差した状態になった場合(S303)、これらの移動体111が衝突軌道にあると判断する(S304)。この際、トラッキング装置121は、これらの移動体111の少なくとも一方が動作介入可能な移動体111であれば(S311)、これらの移動体111の少なくとも一方に対し緊急停止指令を出力する(S312)。すなわち、動作介入が行われる。緊急停止指令を受けた移動体111は、直ちに減速して停止する。これにより、移動体111同士の衝突が回避される。
以上のように、トラッキング装置121は、各ロボット111Bについて得られた移動特徴量(予測データ)に応じて、各ロボット111Bの移動動作への介入を行う。本実施例では、当該介入は、ネットワークを介したソケット通信で行われる。また、コード付き赤外リモコンのような手段で、非常停止介入を行う事も考えられる。また、本実施例の介入処理は、他律的に店舗内を移動するショッピングカートのような移動体111にも適用可能である。例えば、介入信号に反応して動作する車輪ロック機構によるブレーキシステムを、ショッピングカートに設ける事が考えられる。また、店員や作業員等の人間が介入対象の場合には、介入信号に反応して警告音を発生するインカムやイヤホンを、これらの人物に着用させる事が考えられる。更には、介入信号に反応して発光する回転灯を、店舗内の交差点等の要所に設ける事も考えられる。
なお、ロボット(自律移動体)への通知と動作介入は共に、ロボットと他の移動体との接近や衝突等の危険を、ロボットの移動効率を確保しつつ抑制する事が可能である。両者の違いは、危険判断の主体が、前者の場合には一般にロボット側であるのに対し、後者の場合には一般にトラッキング装置側であるという点である。前者の場合にはトラッキング装置の処理負担が軽減され、後者の場合にはロボットの処理負担が軽減される。
トラッキングシステムのシステム構成図である。 カメラの設置状況について説明するための図である。 移動体の検出処理について説明するための図である。 動作特徴量の抽出処理について説明するための図である。 移動体検出領域の画像処理について説明するための図である。 マッチング処理に関するフローチャート図である。 移動体の位置判定について説明するための図である。 移動体の位置判定について説明するための図である。 局所移動方位角について説明するための図である。 局所移動予測域について説明するための図である。 移動予測領域について説明するための図である。 移動体探索処理に関するフローチャート図である。 補正移動予測領域について説明するための図である。 介入処理に関するフローチャート図である。
符号の説明
101 トラッキングシステム
111 移動体
121 トラッキング装置
131 入力部
132 記憶部
133 出力部
141 移動体検出部
142 位置判定部
143 動作特徴量抽出部
151 カメラ
152 アンテナ
161 周波数フィルタ(ローパスフィルタ)
162 周波数フィルタ(ローパスフィルタ)
163 周波数フィルタ(ローパスフィルタ)
164 周波数フィルタ(ハイパスフィルタ)
165 周波数フィルタ(ローパスフィルタ)
171 モニタ
172 ネットワーク

Claims (10)

  1. 空間内の移動体を検出し、
    検出された前記移動体をトラッキングし、
    トラッキングする前記移動体の位置判定を行い、
    前記位置判定により得られた前記移動体の位置データの高周波成分を時間微分する微分量計算と、前記微分量を時間積分する積分量計算とを通じて、前記移動体の微視的な移動に関する数量として、前記積分量に依存する数量を導出することにより、前記移動体についての移動予測を行うことを特徴とするトラッキング方法。
  2. 前記検出では、前記空間内の前記移動体を、前記移動体を撮影した画像を利用して検出し、
    前記位置判定では、前記画像から前記移動体が検出された画像領域内にて代表点を決定し、前記代表点を前記移動体の位置と判定することを特徴とする請求項1記載のトラッキング方法。
  3. 前記位置判定では、前記画像領域内において前記画像の下端に最も近い点を、前記代表点と決定することを特徴とする請求項2記載のトラッキング方法。
  4. 前記位置判定では、前記画像領域内において前記画像の中心に最も近い点を、前記代表点と決定することを特徴とする請求項2記載のトラッキング方法。
  5. 前記高周波成分として、前記位置データをハイパスフィルタによりフィルタリングして得られた前記移動体の位置データである、ハイパス位置データを用いることを特徴とする請求項1記載のトラッキング方法。
  6. 前記移動予測では、さらに、前記位置データの低周波成分を時間微分する微分量計算を通じて、前記移動体の巨視的な移動に関する数量として、前記低周波成分の前記微分量に依存する数量を導出することにより、前記移動体についての移動予測を行うことを特徴とする請求項1乃至5のいずれか1項記載のトラッキング方法。
  7. 前記移動予測では、前記位置データの高周波成分を時間微分する微分量計算と、前記微分量を時間積分する積分量計算と、前記位置データの低周波成分を時間微分する微分量計算とを通じて、前記移動体の微視的な移動に関する数量として、前記高周波成分の前記積分量と前記低周波成分の前記微分量とに依存する数量を導出することにより、前記移動体についての移動予測を行うことを特徴とする請求項1乃至5のいずれか1項記載のトラッキング方法。
  8. 前記移動体の微視的な移動に関する数量は、前記高周波成分の前記微分量と前記低周波成分の前記微分量のなす角度と、前記高周波成分の前記積分量とに依存する数量であることを特徴とする請求項記載のトラッキング方法。
  9. 前記低周波成分として、前記位置データをローパスフィルタによりフィルタリングして得られた前記移動体の位置データである、ローパス位置データを用いることを特徴とする請求項6乃至8のいずれか1項記載のトラッキング方法。
  10. 空間内の移動体を検出する検出部と、
    検出された前記移動体をトラッキングするトラッキング部と、
    トラッキングする前記移動体の位置判定を行う判定部と、
    前記位置判定により得られた前記移動体の位置データの高周波成分を時間微分する微分量計算と、前記微分量を時間積分する積分量計算とを通じて、前記移動体の微視的な移動に関する数量として、前記積分量に依存する数量を導出することにより、前記移動体についての移動予測を行う予測部とを備えることを特徴とするトラッキング装置。
JP2007029424A 2007-02-08 2007-02-08 トラッキング方法及びトラッキング装置 Expired - Fee Related JP4802112B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2007029424A JP4802112B2 (ja) 2007-02-08 2007-02-08 トラッキング方法及びトラッキング装置
US12/010,765 US8180104B2 (en) 2007-02-08 2008-01-29 Tracking method and tracking apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007029424A JP4802112B2 (ja) 2007-02-08 2007-02-08 トラッキング方法及びトラッキング装置

Publications (2)

Publication Number Publication Date
JP2008197733A JP2008197733A (ja) 2008-08-28
JP4802112B2 true JP4802112B2 (ja) 2011-10-26

Family

ID=39685856

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007029424A Expired - Fee Related JP4802112B2 (ja) 2007-02-08 2007-02-08 トラッキング方法及びトラッキング装置

Country Status (2)

Country Link
US (1) US8180104B2 (ja)
JP (1) JP4802112B2 (ja)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100624387B1 (ko) * 2005-04-25 2006-09-20 엘지전자 주식회사 주행영역 지정이 가능한 로봇 시스템
IL197996A (en) * 2009-04-05 2014-07-31 Rafael Advanced Defense Sys A method for locating people
EP2577607A1 (en) 2010-05-28 2013-04-10 QUALCOMM Incorporated Dataset creation for tracking targets with dynamically changing portions
US8831878B2 (en) * 2010-09-13 2014-09-09 Systec Conveyors, Inc. Ground location of work truck
US9014971B2 (en) * 2010-09-13 2015-04-21 Systec Corporation Ground location of work truck
US8957847B1 (en) 2010-12-28 2015-02-17 Amazon Technologies, Inc. Low distraction interfaces
US8843346B2 (en) * 2011-05-13 2014-09-23 Amazon Technologies, Inc. Using spatial information with device interaction
US9437009B2 (en) * 2011-06-20 2016-09-06 University Of Southern California Visual tracking in video images in unconstrained environments by exploiting on-the-fly context using supporters and distracters
FR2979428B1 (fr) * 2011-08-24 2013-10-04 Commissariat Energie Atomique Methode de localisation d'un objet au moyen d'une grille de reference
CN103310183B (zh) * 2012-03-16 2016-12-14 日电(中国)有限公司 人群聚集检测的方法与装置
JP5875917B2 (ja) * 2012-03-26 2016-03-02 一般財団法人電力中央研究所 移動体の画像判別装置および移動体の画像判別方法
TWI722277B (zh) * 2013-03-13 2021-03-21 美商辛波提克有限責任公司 用於自主式車的充電系統
US20140340405A1 (en) * 2013-05-15 2014-11-20 International Business Machines Corporation Crowd movement prediction using optical flow algorithm
US9599988B2 (en) * 2013-10-28 2017-03-21 Pixart Imaging Inc. Adapted mobile carrier and auto following system
US20150142251A1 (en) * 2013-11-21 2015-05-21 International Business Machines Corporation Vehicle control based on colors representative of navigation information
JP6669948B2 (ja) * 2014-09-08 2020-03-18 日本電産株式会社 移動体制御装置及び移動体
JP6428144B2 (ja) * 2014-10-17 2018-11-28 オムロン株式会社 エリア情報推定装置、エリア情報推定方法、および空気調和装置
WO2016084498A1 (ja) * 2014-11-28 2016-06-02 古野電気株式会社 追尾処理装置及び追尾処理方法
US9767564B2 (en) 2015-08-14 2017-09-19 International Business Machines Corporation Monitoring of object impressions and viewing patterns
JP6572092B2 (ja) * 2015-10-21 2019-09-04 ファナック株式会社 視覚センサを用いた動体システム
JP6972797B2 (ja) * 2016-11-24 2021-11-24 株式会社リコー 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法、及びプログラム
JP6932971B2 (ja) * 2017-04-07 2021-09-08 コニカミノルタ株式会社 動体追跡方法、動体追跡プログラム、および動体追跡システム
US11662456B2 (en) 2017-12-11 2023-05-30 Fraunhofer-Gesellschaft zur Förderung der ange-wandten Forschung e. V. Method to determine a present position of an object, positioning system, tracker and computer program
CN111291598B (zh) * 2018-12-07 2023-07-11 长沙智能驾驶研究院有限公司 多目标跟踪方法、装置、移动终端及计算机存储介质
US10885661B2 (en) * 2018-12-15 2021-01-05 Ncr Corporation Location determination
JP7322670B2 (ja) * 2019-11-13 2023-08-08 オムロン株式会社 自己位置推定モデル学習方法、自己位置推定モデル学習装置、自己位置推定モデル学習プログラム、自己位置推定方法、自己位置推定装置、自己位置推定プログラム、及びロボット

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4907169A (en) * 1987-09-30 1990-03-06 International Technical Associates Adaptive tracking vision and guidance system
JPH04207361A (ja) * 1990-11-30 1992-07-29 Fujitsu Ltd 画像追尾装置
JPH0523172U (ja) * 1991-09-09 1993-03-26 三菱電機株式会社 追尾フイルタ装置
JPH0863602A (ja) * 1994-08-19 1996-03-08 Fuji Electric Co Ltd 物体追跡装置
JPH11503594A (ja) * 1996-02-05 1999-03-26 フィリップス エレクトロニクス ネムローゼ フェンノートシャップ 画像データノイズフィルタ処理
EP0827127B1 (en) * 1996-08-28 2006-10-04 Matsushita Electric Industrial Co., Ltd. Local positioning apparatus, and method therefor
DE69831181T2 (de) * 1997-05-30 2006-05-18 British Broadcasting Corp. Positionsbestimmung
JP3567073B2 (ja) * 1998-01-26 2004-09-15 株式会社日立製作所 時系列データ予測方法および装置
JP2000069346A (ja) * 1998-06-12 2000-03-03 Canon Inc カメラ制御装置、方法、カメラ、追尾カメラシステム及びコンピュ―タ読み取り可能な記憶媒体
JP3885999B2 (ja) * 2001-12-28 2007-02-28 本田技研工業株式会社 物体検出装置
US7409092B2 (en) * 2002-06-20 2008-08-05 Hrl Laboratories, Llc Method and apparatus for the surveillance of objects in images
DE10258794A1 (de) * 2002-12-16 2004-06-24 Ibeo Automobile Sensor Gmbh Verfahren zur Erkennung und Verfolgung von Objekten
JP3882083B2 (ja) * 2003-11-26 2007-02-14 国立大学法人岐阜大学 測距装置
JP2006033188A (ja) 2004-07-13 2006-02-02 Matsushita Electric Ind Co Ltd 監視装置および監視方法
JP2006127157A (ja) 2004-10-28 2006-05-18 Sony Corp 動体追跡方法及び動体追跡装置及び動体追跡プログラム
US20100222925A1 (en) * 2004-12-03 2010-09-02 Takashi Anezaki Robot control apparatus
KR100776215B1 (ko) * 2005-01-25 2007-11-16 삼성전자주식회사 상향 영상을 이용한 이동체의 위치 추정 및 지도 생성장치 및 방법과 그 장치를 제어하는 컴퓨터 프로그램을저장하는 컴퓨터로 읽을 수 있는 기록 매체
KR100763901B1 (ko) * 2005-01-26 2007-10-05 삼성전자주식회사 이동체 제어 장치 및 방법
JP2006220521A (ja) * 2005-02-10 2006-08-24 Hitachi Ltd 自己位置計測装置及び自己位置計測方法を実行するためのプログラム
US10555775B2 (en) * 2005-05-16 2020-02-11 Intuitive Surgical Operations, Inc. Methods and system for performing 3-D tool tracking by fusion of sensor and/or camera derived data during minimally invasive robotic surgery
JP2006338272A (ja) * 2005-06-01 2006-12-14 Nissan Motor Co Ltd 車両挙動検出装置、および車両挙動検出方法
JP2007036888A (ja) * 2005-07-28 2007-02-08 Sanyo Electric Co Ltd 符号化方法
US7420472B2 (en) * 2005-10-16 2008-09-02 Bao Tran Patient monitoring apparatus

Also Published As

Publication number Publication date
JP2008197733A (ja) 2008-08-28
US20080193009A1 (en) 2008-08-14
US8180104B2 (en) 2012-05-15

Similar Documents

Publication Publication Date Title
JP4802112B2 (ja) トラッキング方法及びトラッキング装置
US20200333789A1 (en) Information processing apparatus, information processing method, and medium
US9875648B2 (en) Methods and systems for reducing false alarms in a robotic device by sensor fusion
US10970859B2 (en) Monitoring method and device for mobile target, monitoring system and mobile robot
US11080439B2 (en) Method and apparatus for interacting with a tag in a cold storage area
CN108737793B (zh) 使用摄像机网络跟踪运动对象的方法、***及装置
JP4871160B2 (ja) ロボットおよびその制御方法
US10088549B2 (en) System and a method for tracking mobile objects using cameras and tag devices
US8965050B2 (en) Behavior analysis device
CN103459099B (zh) 与一个可移动的远程机器人相互交流
KR101788269B1 (ko) 이상 상황을 감지하는 장치 및 방법
KR20230050396A (ko) 장애물 탐측 방법, 장치, 자율 보행 로봇 및 기억 매체
CN110264495B (zh) 一种目标跟踪方法及装置
CN112739244A (zh) 移动机器人清洁***
WO2012029058A1 (en) Method and system for extracting three-dimensional information
US20220414281A1 (en) Method and apparatus for presentation of digital content
Papaioannou et al. Tracking people in highly dynamic industrial environments
JP2022548009A (ja) 物体移動システム
KR101518314B1 (ko) 무인 항공 감시 장치를 이용한 영상 감시 방법 및 장치
JP2007280387A (ja) 物体移動の検出方法及び検出装置
Kim et al. Real-time struck-by hazards detection system for small-and medium-sized construction sites based on computer vision using far-field surveillance videos
Høilund et al. Improving stereo camera depth measurements and benefiting from intermediate results
WO2023189076A1 (ja) 監視システム及び監視方法
US20230334188A1 (en) Provision of digital content via a wearable eye covering

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090327

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110405

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110422

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110617

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110715

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110808

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140812

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4802112

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140812

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees