JP2008217714A - 追跡装置、追跡方法、及び追跡プログラム - Google Patents

追跡装置、追跡方法、及び追跡プログラム Download PDF

Info

Publication number
JP2008217714A
JP2008217714A JP2007057855A JP2007057855A JP2008217714A JP 2008217714 A JP2008217714 A JP 2008217714A JP 2007057855 A JP2007057855 A JP 2007057855A JP 2007057855 A JP2007057855 A JP 2007057855A JP 2008217714 A JP2008217714 A JP 2008217714A
Authority
JP
Japan
Prior art keywords
person
tracking
movement range
image
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007057855A
Other languages
English (en)
Other versions
JP4987513B2 (ja
Inventor
Takehiro Mabuchi
健宏 馬渕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sohgo Security Services Co Ltd
Original Assignee
Sohgo Security Services Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sohgo Security Services Co Ltd filed Critical Sohgo Security Services Co Ltd
Priority to JP2007057855A priority Critical patent/JP4987513B2/ja
Publication of JP2008217714A publication Critical patent/JP2008217714A/ja
Application granted granted Critical
Publication of JP4987513B2 publication Critical patent/JP4987513B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】画像に含まれる対象物を高精度に追跡する。
【解決手段】撮像手段から得られる画像情報に含まれる対象物を経時的に追跡する追跡装置において、前記撮像手段により所定の間隔で撮影された画像情報を入力する画像入力手段と、入力した画像情報から前記対象物を検出する対象物検出手段と、前記対象物検出手段により前記対象物を検出した場合に、前記撮像手段に対する前記対象物の距離及び位置を測定する距離・位置測定手段と、前記対象物に対する画像1フレームあたりの移動範囲を取得する移動範囲取得手段と、前記移動範囲取得手段により得られる移動範囲から、各フレーム毎に検出された対象物が同一であるか否か判定する判定手段とを有することにより上記課題を解決する。
【選択図】図1

Description

本発明は、追跡装置、追跡方法、及び追跡プログラムに係り、特に画像に含まれる対象物を高精度に追跡するための追跡装置、追跡方法、及び追跡プログラムに関する。
従来から、ステレオカメラを用いて空間内の特定の距離範囲にある物体の像を抽出して、その物体の高さを測定し、その物体の移動を追跡するステレオ画像による物体の移動追跡方法が知られている(例えば、特許文献1参照。)。
上述の特許文献1に示されている手法は、まず、ステレオ画像撮像部から得た画像信号に基づいて特定物体高測定部が物体の実際の高さを求め、次に、所定の時間遅延した後、特定物体高測定部により物体の高さを求め、更に、この高さと以前に求めた高さとの差を求めて、この差が閾値以内であれば同一物体と判断して物体移動追跡部が物体を追跡するものである。
特開平9−145368号公報
ところで、上述した特許文献1に示されている手法では、ステレオ画像を処理して測定した距離情報を用いて人物等を追跡している。しかしながら、ステレオ画像処理による距離測定は、ステレオカメラの取り付け時の位置ずれ等の影響により誤差が生じる。特に、ステレオカメラから人物等の距離が遠くなればなるほど誤差は大きくなり、距離精度は低くなるため、遠くの人物等の特定物体(対象物)の追跡を行うことが困難であった。
本発明は、上記に鑑みてなされたものであって、撮影手段と人物との距離が遠い場合であっても、画像や映像に映っている対象物を高精度に追跡するための追跡装置、追跡方法、及び追跡プログラムを提供することを目的とする。
上記課題を解決するために、本件発明は、以下の特徴を有する課題を解決するための手段を採用している。
請求項1に記載された発明は、撮像手段から得られる画像情報に含まれる対象物を経時的に追跡する追跡装置において、前記撮像手段により所定の間隔で撮影された画像情報を入力する画像入力手段と、入力した画像情報から前記対象物を検出する対象物検出手段と、前記対象物検出手段により前記対象物を検出した場合に、前記撮像手段に対する前記対象物の距離及び位置を測定する距離・位置測定手段と、前記対象物に対する画像1フレームあたりの移動範囲を取得する移動範囲取得手段と、前記移動範囲取得手段により得られる移動範囲から、各フレーム毎に検出された対象物が同一であるか否か判定する判定手段とを有することを特徴とする。
また、請求項2に記載された発明は、前記判定手段は、前記移動範囲取得手段により得られた移動範囲が他の対象物の移動範囲と重なるか否かを判断し、前記判定手段により移動範囲が重なると判断された場合に、各対象物の特徴量を抽出する特徴量抽出手段と、前記特徴量抽出手段により得られる前記各対象物毎に特徴量の照合を行う照合手段とを有することを特徴とする。
また、請求項3に記載された発明は、前記判定手段は、前記対象物検出手段により得られた対象物が新たに検出した対象物であるか否かを判断し、前記判定手段により新たに検出した対象物であると判断された場合に、前記対象物の特徴量を抽出する特徴量抽出手段と、前記特徴量抽出手段により得られる既に存在する対象物の特徴量と、新たに検出した対象物の特徴量との照合を行う照合手段とを有することを特徴とする。
また、請求項4に記載された発明は、前記撮像手段を基準にした前記対象物の位置を表示する画面を生成する画面生成手段を有することを特徴とする。
また、請求項5に記載された発明は、撮像手段から得られる画像情報に含まれる対象物を経時的に追跡する追跡方法において、前記撮像手段により所定の間隔で撮影された画像情報を入力する画像入力ステップと、入力した画像情報から前記対象物を検出する対象物検出ステップと、前記対象物検出ステップにより前記対象物を検出した場合に、前記撮像手段に対する前記対象物の距離及び位置を測定する位置・距離測定ステップと、前記対象物に対する画像1フレームあたりの移動範囲を取得する移動範囲取得ステップと、前記移動範囲取得ステップにより得られる移動範囲から、各フレーム毎に検出された対象物が同一であるか否か判定する判定ステップとを有することを特徴とする。
また、請求項6に記載された発明は、前記判定ステップは、前記移動範囲取得ステップにより得られた移動範囲が他の対象物の移動範囲と重なるか否かを判断し、前記判断ステップにより移動範囲と重なると判断された場合に、各対象物の特徴量を抽出する特徴量抽出ステップと、前記特徴量抽出ステップにより得られる前記各対象物毎に特徴量の照合を行う照合ステップとを有することを特徴とする。
また、請求項7に記載された発明は、前記判定ステップは、前記対象物検出ステップにより得られた対象物が新たに検出した対象物であるか否かを判断し、前記判定ステップにより新たに検出した対象物であると判断された場合に、前記対象物の特徴量を抽出する特徴量抽出ステップと、前記特徴量抽出ステップにより得られる既に存在する対象物の特徴量と、新たに検出した対象物の特徴量との照合を行う照合ステップとを有することを特徴とする。
また、請求項8に記載された発明は、前記撮像手段を基準にした前記対象物の位置を表示する画面を生成する画面生成ステップを有することを特徴とする。
また、請求項9に記載された発明は、前記請求項5乃至8の何れか1項に記載された追跡方法をコンピュータに実行させるための追跡プログラムである。
請求項1記載の発明によれば、画像に含まれる対象物を高精度に追跡することができる。具体的には、ステレオカメラではなく、所定の数式等を用いて求めた撮像手段に対する対象物の距離及び位置を用いて対象物の追跡を行うため、撮像手段と対象物との距離が遠い場合であっても、距離に関係なく正確に対象物の追跡を行うことができる。
また、請求項2記載の発明によれば、対象物の特徴量を比較して照合を行うため、複数の対象物が重なった場合であっても、正確に対象物の追跡を行うことができる。
また、請求項3記載の発明によれば、新たな対象物を検出した場合であっても、それに対応して迅速に対象物の追跡を行うことができる。
また、請求項4記載の発明によれば、追跡結果を使用者等に容易に把握させることができる。これにより、使用者は、監視や警備業務等を高精度に行うことができる。
また、請求項5記載の発明によれば、画像に含まれる対象物を高精度に追跡することができる。具体的には、ステレオカメラではなく、所定の数式等を用いて求めた撮像手段に対する対象物の距離及び位置を用いて対象物の追跡を行うため、撮像手段と対象物との距離が遠い場合であっても、距離に関係なく正確に対象物の追跡を行うことができる。
また、請求項6記載の発明によれば、対象物の特徴量を比較して照合を行うため、複数の対象物が重なった場合であっても、正確に対象物の追跡を行うことができる。
また、請求項7記載の発明によれば、新たな対象物を検出した場合であっても、それに対応して迅速に対象物の追跡を行うことができる。
また、請求項8記載の発明によれば、追跡結果を使用者等に容易に把握させることができる。これにより、使用者は、監視や警備業務等を高精度に行うことができる。
また、請求項9記載の発明によれば、画像に含まれる対象物を高精度に追跡する。また、実行プログラムをコンピュータにインストールすることにより、容易に追跡処理を実現することができる。
以下に、本発明における追跡装置、追跡方法、及び追跡プログラムを好適に実施した形態について、図面を用いて説明する。なお、以下に説明する実施形態では、カメラ等の撮像手段により撮影された画像(所定時間毎に撮影される画像や映像等の連続画像等も含む)に含まれる追跡対象物の一例として人物を用いた追跡手法について説明するが、本発明において対象物はこれに限定されず、例えば動物やロボット等の移動可能な物体等であればよい。
<追跡装置:機能構成>
図1は、本発明における追跡装置の概略構成の一例を示す図である。図1に示す追跡装置10は、入力手段11と、出力手段12と、蓄積手段13と、対象物検出手段14と、距離・位置測定手段15と、移動範囲取得手段16と、判定手段17と、特徴量抽出手段18と、照合手段19と、画面生成手段20と、送受信手段21と、制御手段22とを有するよう構成されている。
入力手段11は、撮像手段としての1又は複数のカメラ23等により人物が撮影されている画像や映像等の画像情報を、後述する送受信手段21から受信するための指示や、取得した画像や映像からカメラ23の所定位置(レンズの中心位置やカメラ本体の重心位置等)を基準として、対象物である人物の距離を測定したり、人物の位置を測定するための測定指示等、人物の追跡における判定を行ったり、各種指示情報の入力を受け付ける。なお、入力手段11は、例えばタッチパネルや操作ボタン群、キーボード、マウス等のポインティングデバイス、音声により指示を入力するためのマイク等からなる。
ここで、画像や映像を撮影するためのカメラの種類としては、特に制限されないが、例えば高精細カメラ、望遠カメラ等を用いることができ、市販されている一般的な解像度を有するカメラであればよい。また、カメラ23から得られる画像情報としては、画像や映像の他に、撮影した日時を示す撮影時間情報や、カメラ23を識別するカメラ識別情報、カメラ23のレンズの中心位置やカメラ本体の重心位置、画角、解像度等のカメラ情報、カメラ23又はカメラ23の周辺に設置されたマイク等の音声入力手段等により得られる音声情報等を有している。
また、出力手段12は、入力手段11により入力された指示内容や、カメラ23から得られる画像や映像、又は予め蓄積手段13等に蓄積されている画像や映像等を用いて距離・位置測定手段15や移動範囲取得手段16により得られるカメラ23の所定位置から人物までの距離や位置の測定結果、及び対象物の移動範囲取得結果、人物追跡結果等をディスプレイ等により出力する。なお、距離や位置の測定結果は、画面生成手段20により生成された表示内容が出力される。
ここで、出力手段12は、ディスプレイの他にもスピーカ等の音声出力手段を有し、例えば距離測定や位置測定、追跡測定終了後、使用者等に音声で通知したり、カメラ23又はカメラ23の周辺に設置されたマイク等の音声入力手段から得られる音声データを出力することができる。
蓄積手段13は、カメラ23により得られる画像情報(画像、映像、撮影時間情報、カメラ識別情報、カメラ情報、音声等を含む)や、距離・位置測定手段15により得られる距離・位置測定結果や、移動範囲取得手段16により得られる移動範囲取得結果、追跡結果等の各種情報を蓄積する。
なお、蓄積手段13に蓄積された各種データは、制御手段22からの制御信号に基づいて、必要に応じて読み出すことができ、またデータ等の更新、追加等の書き込み、削除等を行うことができる。
対象物検出手段14は、送受信手段21を介して受信した画像情報又は蓄積手段13に予め蓄積された画像情報に基づいて1又は複数の人物を検出する。なお、対象物検出手段14は、検出結果を蓄積手段13に蓄積させてもよい。
距離・位置測定手段15は、送受信手段21を介して受信した画像情報又は蓄積手段13に予め蓄積された画像情報に基づいて、カメラ23で予め設定される所定位置から人物までの距離や人物の位置を測定する。なお、具体的な距離や位置の測定手法については後述する。
移動範囲取得手段16は、人物に対する画像1フレームあたりの移動可能範囲を取得する。具体的には、移動範囲取得手段16は、所定間隔で入力した映像中の各画像において、人物が移動可能な範囲を取得するため、時系列的に複数の画像から同一の対象物がどの程度動いているかを測定し、その距離と各画像の撮影時間等の時間情報等に基づいて画像中に含まれる各人物の移動範囲を画像の2次元座標等に基づいて取得する。なお、移動範囲取得手段16は、取得した移動範囲を蓄積手段13に蓄積させてもよい。
判定手段17は、上述した移動範囲取得手段16等により得られる移動範囲から、各フレーム毎に検出された人物が同一人物であるか否か判定する。また、判定手段17は、画像中に含まれる複数の人物が画像中で重なっているか否かの判定を行う。更に、判定手段17は、画像中に含まれる人物が新たに検出された人物であるかの判定を行う。また、判定手段17は、人物が所定の移動可能範囲を超える場合に特徴量等から同一人物か否かの判定を行う。なお、判定手段17は、判定結果を蓄積手段13に蓄積させてもよい。
特徴量抽出手段18は、画像や映像に含まれる人物の特徴量を抽出する。具体的には、特徴量抽出手段18は、移動範囲取得手段16により得られた移動範囲が、他の対象物の移動範囲と重なると判断された場合に、各人物の特徴量を抽出する。また、特徴量抽出手段18は、判定手段17により画像中に含まれる人物が新たな人物であると判断された場合や、画像中に含まれる人物が移動可能範囲を超えた場合等に、その人物についての特徴量を抽出する。
ここで、特徴量としては、例えば画像から切り出した対象物(人物)の画像データや体型、色、大きさ等により人物を特定する情報、あるいは、顔の目や鼻や口の形状、位置等を特定する情報等である。また、特徴量の取得方法としては、例えば蓄積手段13等に通常時の画像を蓄積し、人物を含む画像との差分を取り、差分が存在する部分のオブジェクトを抽出して、人物だけを抽出する。また、抽出した人物の画像から、人物を特定する形状、色、大きさ等の情報の取得方法については、画面をブロックに分割し、各ブロックの代表的な色等を抽出して、人物の情報を抽象化する。
更に、顔の特徴量の取得方法は、例えば顔の構成要素の形や位置の情報を抽出し、目、鼻、口等の大きさや位置、形状の情報を取得する。なお、これらの技術は、例えば特開2003−324720号公報に記載されている手法やその他の手法を用いることができる。なお、特徴量抽出手段18は、抽出した情報を蓄積手段13に蓄積させてもよい。
照合手段19は、必要に応じて各人物毎に特徴量の照合を行う。また、照合手段19は、照合結果に基づいて人物の特定及び追跡を行う。なお、照合手段19は、照合結果を蓄積手段13に蓄積させてもよい。
画面生成手段20は、送受信手段21を介してカメラ23等から受信した画像情報又は蓄積手段13に予め蓄積された画像情報、距離・位置測定手段15により測定された距離測定結果、移動範囲取得手段16により得られた移動可能範囲(座標)、追跡結果等を出力手段12から出力するための画面を生成する。なお、画面生成手段20における具体的な画面例については後述する。
送受信手段21は、インターネットやLAN(Local Area Network)、アンテナ、通信回線等からなり、有線や無線等により所定のカメラや外部蓄積装置等からのデータ又は制御信号の送受信を行い、特にカメラ等から撮影された画像や映像等の画像情報の受信を行う。
制御手段22は、追跡装置10の各構成部全体の制御を行う。具体的には、制御手段22は、カメラ23により得られる画像情報を受信して蓄積手段13に蓄積させたり、距離・位置測定手段15により画像等に含まれる人物と所定位置との距離や人物の位置を測定させたり、移動範囲取得手段16により画像等に含まれる人物の移動範囲を取得させたり、画面生成手段20により追跡結果を生成させ、ディスプレイ等の出力手段12に表示したり、送受信手段21を介して外部装置で表示させるための画面を生成させる等の各種処理の制御を行う。上述した追跡装置10により、画像に含まれる対象物を高精度に追跡することができる。
<ハードウェア構成>
ここで、上述した追跡装置10は、専用の装置構成により本発明における対象物の追跡を行うこともできるが、各構成における処理をコンピュータに実行させることができる実行プログラムを生成し、例えば、汎用のパーソナルコンピュータ、サーバ等にプログラムをインストールすることにより、本発明における対象物の追跡処理を実現することができる。
ここで、本発明における実行可能なコンピュータのハードウェア構成例について図を用いて説明する。図2は、本発明における追跡処理が実現可能なハードウェア構成の一例を示す図である。
図2におけるコンピュータ本体には、入力装置31と、出力装置32と、ドライブ装置33と、補助記憶装置34と、メモリ装置35と、各種制御を行うCPU(Central Processing Unit)36と、ネットワーク接続装置37とを有するよう構成されており、これらはシステムバスBで相互に接続されている。
入力装置31は、使用者が操作するキーボード及びマウス等のポインティングデバイスを有しており、使用者からのプログラムの実行等、各種操作信号を入力する。出力装置32は、本発明における処理を行うためのコンピュータ本体を操作するのに必要な各種ウィンドウやデータ等を表示するディスプレイを有し、CPU36が有する制御プログラムによりプログラムの実行経過や結果等を表示することができる。
ここで、本発明において、コンピュータ本体にインストールされる実行プログラムは、例えばCD−ROM等の記録媒体38等により提供される。プログラムを記録した記録媒体38は、ドライブ装置33にセット可能であり、記録媒体38に含まれる実行プログラムが、記録媒体38からドライブ装置33を介して補助記憶装置34にインストールされる。
補助記憶装置34は、ハードディスク等のストレージ手段であり、本発明における実行プログラムや、コンピュータに設けられた制御プログラム、上述した追跡する人物のカメラ23からの距離情報や位置情報、追跡結果等、追跡処理に関する各種情報等を蓄積し、必要に応じて入出力を行うことができる。
メモリ装置35は、CPU36により補助記憶装置34から読み出された実行プログラム等を格納する。なお、メモリ装置35は、ROM(Read Only Memory)やRAM(Random Access Memory)等からなる。
CPU36は、OS(Operating System)等の制御プログラム、メモリ装置35により読み出され格納されている実行プログラムに基づいて、各種演算や各ハードウェア構成部とのデータの入出力等、コンピュータ全体の処理を制御して各処理を実現することができる。また、プログラムの実行中に必要な各種情報は、補助記憶装置34から取得することができ、また格納することもできる。
ネットワーク接続装置37は、通信ネットワーク等と接続することにより、実行プログラムを通信ネットワークに接続されている他の端末等から取得したり、プログラムを実行することで得られた実行結果又は本発明における実行プログラム自体を他の端末等に提供することができる。
上述したようなハードウェア構成により、特別な装置構成を必要とせず、低コストで効率的に追跡処理を実現することができる。また、プログラムをインストールすることにより、後述する追跡処理等を実現することができる。
<本発明における人物追跡に各実施形態>
次に、本発明における人物追跡における各実施形態についてフローチャート等を用いて説明する。なお、以下に示す各実施形態に対応したフローチャートは、一例として画像中の人物の検出や判定等を行い、その後、追跡結果等を表示するまでの一例の処理手順について説明しているが、本発明における追跡処理は、例えば使用者等が処理を終了する指示を出すまで継続して実行されてもよい。
<人物追跡:第1の実施形態>
次に、上述した追跡装置10を用いた画像中の人物追跡の第1の実施形態について説明する。図3は、第1の実施形態における人物追跡の一例を示す図である。
まず、カメラ23等から画像情報を入力し(S01)、対象物検出手段14は、その画像に人物(例えば、体、顔、頭等のある特徴が検出できるもの)が1以上含まれているか否かを判断する(S02)。
ここで、S02における人物の顔検出処理は、例えば、予め顔の横幅及び顔に含まれる両目や鼻、口等の各特徴点の相対位置関係を基準値として記憶しておき、その後、撮像された顔画像から、まず肌色領域を抽出し、その肌色領域から顔の特徴点の領域を抽出して、肌色領域の横幅及び顔の特徴点の相対位置関係を算出し、基準値と比較して人物の検出や顔の傾きを含む向き等を検出する。上述したような手法は、例えば特開平11−281661号公報等に開示されているが本発明における人物検出手法はこれに限定されるものではない。
ここで、S02の処理において、人物を検出できなかった場合(S02において、NO)、S01に戻って再び画像情報を入力があるまで待機する。更に、S02の処理において、人物(顔等)を1又は複数検出した場合(S02において、YES)、以下の処理を検出した個々の人物(顔等)毎に行う。
距離・位置測定手段15は、人物の距離を測定し(S03)、測定した距離情報に基づいて人物の位置を測定する(S04)。ここで、距離・位置測定手段15は、具体的には、例えば本出願人により出願された特願2006−186945号に開示されている方法で距離及び位置を測定する。このとき、人物の位置は、例えば2次元平面上の座標(x、y)で表示することができる。
<距離測定例1>
具体的には、カメラ23からの距離と顔の幅に対応する画素数の関係より、基準となる距離に対する顔の幅と、その幅に対応する画素数が分かれば、例えば以下に示す数式等を用いてカメラ23の所定位置(レンズの中心位置やカメラ本体の重心位置等)から人物までの距離を、撮影された人物の顔の幅に対応した画素数から導き出すことができる。
ここで、画像に含まれる人物の所定幅に対応する画素数をF、予め設定される基準となる距離をLs、距離Lsに対応して設定された基準となる画素数をFsとすると、カメラ23の所定位置から人物までの距離をLは、L=(Ls×Fs)/Fにより求めることができる。
<距離測定例2>
また、他の距離測定例として、カメラ23からの距離と顔の幅に対応する画素数、カメラ23の画角の関係より、基準となる距離における顔の幅に対応する画素数、及びそのときのカメラ23の画角があれば、例えば以下に示すような数式を用いることにより、距離を測定する人物の顔の幅に対応した画素数から、カメラ23の所定位置から人物までの距離を導き出すことができる。
ここで、画像に含まれる人物の所定幅に対応する画素数をF、画素数Fを測定したときのカメラの画角をα、予め設定された基準となる距離をLs、距離Lsに対応して設定された基準となる画素数をFs、画素数Fsを測定したときのカメラの画角をαsとしたとき、カメラの所定位置から人物までの距離Lは、L=(Ls×tan(αs/2)×Fs)/(tan(α/2)×F)により求めることができる。
<距離測定例3>
また、他の距離測定例として、上述の距離測定例1に示すように、例えば測定した現在の顔の長さに対する画素数から距離を導き出す式に、顔の傾きに応じて、人物の距離を補正する。なお、顔の傾きの検出手法は、従来の検出手法(例えば、上述した特開平11−181661号公報)等により求めることができる。
ここで、画像に含まれる人物の所定幅に対応する画素数をF、画素数Fを測定したときのカメラの画角をα、人物の撮影方向に対する傾きをβ、予め設定された基準となる距離をLs、距離Lsに対応して設定された基準となる画素数をFs、画素数Fsを測定したときのカメラの画角をαsとしたとき、補正されるカメラの所定位置から人物対象物までの距離Lは、L=(Ls×tan(αs/2)×Fs)/(tan(α/2)×F×cosβ)により求めることができる。
<位置測定例>
また、位置測定例としては、例えばカメラ23の水平方向の画素数をN、カメラ23の水平方向の画角をαh、対象物の中心の水平方向の座標をxとしたとき、追跡対象物である人物の水平方向の角度θを、θ=tan−1(((2×x/N)−1)×tan(αh/2))により算出し、算出された結果及び上述した距離測定例1〜3により得られるカメラ23の所定位置から人物までの距離に基づいて、人物の位置(座標)を測定する。これにより、画像に含まれる対象物までの距離や位置を高精度に測定することができる。なお、本発明における人物の距離及び位置の測定方法については、上述した手法に限定されるものではない。
次に、移動範囲取得手段16は、人物の1フレームあたりの移動範囲を測定し(S05)、測定した結果から移動可能な位置座標を求める(S06)。
<移動範囲の取得方法>
ここで、移動範囲取得手段16における移動範囲の取得方法について図を用いて説明する。図4は、移動範囲の測定方法について説明するための一例の図である。なお、図4は、人物とカメラとの位置関係を上から見た図である。
図4に示すように、移動範囲取得手段16は、取得した画像の1フレームあたりの人物の移動可能範囲を取得する。具体的には、移動範囲取得手段16は、例えば人物の移動速度及び1フレームの画像を処理する時間等から求めることができる。ここで、移動速度については、人物の平均速度を予め設定しておいてもよく、更には、撮影された複数の画像フレームを用いて、そのフレーム間における人物の移動距離と、そのフレームの撮影時間の差等から求めることができる。また、1フレームの画像を処理する時間についても、予め一定時間毎に1フレームの画像の処理を行うように設定しておくことで定められる。
例えば、図4の例では、カメラ23の画角α°の範囲内に人物41が存在する場合、予め設定された人物の平均移動速度が秒速10mであり、カメラ23の性能として1フレームを処理する時間が毎秒30枚だとすると、人物41の1フレームあたりの移動範囲は、10(m/秒)÷30(枚/秒)=0.33mとなる。これにより、移動範囲取得手段16は、現在の人物41の位置座標から移動可能な範囲を、位置座標を基準に取得することができる。
なお、上述の取得結果は、例えば画像生成手段20により生成され、移動可能な位置座標を含む人物41の移動可能範囲42は、図4で示すように画面上では円弧で表される。なお、画像生成手段20により生成される移動可能範囲42としては、例えば人物41の移動方向や移動範囲の距離、撮影時間情報、人物41の特徴情報等が表示されてもよく、更に、人物41の進行方向が把握できる場合には、移動可能範囲42をその進行方向に基づいて半円状や楕円、矩形や三角形等の多角形に表示されるようにしてもよい。なお、取得した距離や位置、移動可能範囲(座標)の取得結果は、取得した時間情報と共に対象物毎に蓄積手段13等に蓄積される。
次に、S06の処理により移動可能な位置座標を求めると、再びカメラ23等から次の画像情報を入力し(S07)、対象物検出手段14は、その画像に人物(顔等)が含まれているか否かを判断する(S08)。
ここで、S08の処理において、人物を検出できなかった場合(S08においてNO)、人物が撮影範囲から抜けたと判断して処理を終了する。また、S08の処理において、人物を検出した場合(S08において、YES)、距離・位置測定手段15は、人物の距離を測定し(S09)、測定した距離情報に基づいて人物の位置を測定する(S10)。
次に、判定手段17は、測定された人物の位置座標と前画像で測定された移動可能な位置座標とを比較する(S11)。また、比較の結果、位置座標が移動可能な位置座標か否かを判断し(S12)、位置座標が移動可能な位置座標であった場合(S12において、YES)、判定手段17は、同一の人物と判断し(S13)、その人物が今まで画面に表示している場合には、例えばその人物の移動経路を表示させるための画面生成を行い(S14)、その画面をディスプレイ等の出力手段12に表示して(S15)、引き続き人物の追跡を行うためS05に戻り後続の処理を行う。
また、S12の処理において、位置座標が移動可能な位置座標でなかった場合(S12において、NO)、判定手段17は、異なる人物と判断し(S16)、例えば新規人物(新たに検出された人物等)を表示させるための画面生成を行い(S17)、画面を表示する(S18)。また、S08の処理において、人物を検出していない場合(S08において、NO)、処理を終了する。
これにより、画像に含まれる対象物を高精度に追跡することができる。具体的には、ステレオカメラではなく、所定の数式等を用いて求めた撮像手段に対する対象物の距離及び位置を用いて対象物の追跡を行うため、撮像手段と対象物との距離が遠い場合であっても、距離に関係なく正確に対象物の追跡を行うことができる。
<人物追跡:第2の実施形態>
次に、上述した追跡装置10を用いた画像中の人物追跡の第2の実施形態について説明する。図5は、第2の実施形態における人物追跡の一例を示す図である。第2の実施形態では、第1の実施形態に、人物を追跡中に他の人物と交差する可能性がある場合、具体的には移動可能範囲が重なる場合であっても確実に追跡を行うことができる人物追跡手法について説明する。
まず、カメラ23から画像情報を入力し(S21)、対象物検出手段14は、その画像に人物が1以上含まれているか否かを判断する(S22)。ここで、S22の処理において、人物を検出できなかった場合(S22において、NO)、S21に戻って再び画像情報を入力があるまで待機する。更に、S22の処理において、人物を1又は複数検出した場合(S22において、YES)、以下の処理を検出した個々の人物毎に行う。
距離・位置測定手段15は、人物の距離を測定し(S23)、測定した距離情報に基づいて人物の位置を測定する(S24)。更に、移動範囲取得手段16は、人物の1フレームあたりの移動範囲を測定し(S25)、測定した結果から移動可能な位置座標を求める(S26)。なお、上述したS21〜S26の処理については、第1の実施形態(S01〜S06)と同様であるため、ここでの詳細な説明については省略する。次に、制御手段22は、検出された人物の移動範囲が他の人物の移動範囲と重なるか否かを判断する(S27)。
<移動範囲が重なっている例>
ここで、複数の人物が撮影領域内にいる場合に人物の移動範囲が重なる場合の一例について図を用いて説明する。図6は、人物の移動範囲が重なっている例について説明するための一例の図である。図6に示すように、人物が複数存在する場合、移動範囲取得手段16は上述した手法によりその人物41−1,41−2の移動範囲を取得し、その結果、各人物41−1,41−2について、それぞれの移動可能範囲42−1,42−2をそれぞれ設定する。
このとき、図6に示すように、それぞれの移動可能範囲42−1,42−2に重複範囲(図6における斜線部分)43が存在するか否かを判断し、その結果に基づいて、その人物が前の画像フレームに存在する人物と同一人物であるか否かの判定とその対応付け処理を行う。具体的には、特徴量抽出手段18により人物41−1,41−2の特徴量を取得し、照合手段19により重なる前後の人物の特徴量を照合することにより、その人物の移動位置や方向を追跡することができる。
ここで、制御手段22は、S27の処理において、人物の移動範囲が他の人物の移動範囲と重なると判断した場合(S27において、YES)、特徴量抽出手段18は、各人物の特徴量を求める(S28)。
また、S27の処理において、人物の移動範囲が他の人物の移動範囲と重ならないと判断した場合(S27においてNO)、又はS28の処理が終了後、再びカメラ23から次の画像情報を入力し(S29)、対象物検出手段14は、その画像に人物(顔等)が含まれているか否かを判断する(S30)。
S30の処理において、人物が検出できなかった場合(S30において、NO)、人物が撮影範囲から抜けたと判断して処理を終了する。また、S30の処理において、人物を検出した場合(S30において、YES)、距離・位置測定手段15は、人物の距離を測定し(S31)、測定した距離情報に基づいて人物の位置を測定する(S32)。
次に、判定手段17は、測定された人物の位置座標と前画像で測定された移動可能な位置座標とを比較し(S33)、比較の結果、移動可能な位置座標か否かを判断する(S34)。ここで、S34の処理において、位置座標が移動可能な位置座標でなかった場合(S34において、NO)、判定手段17は、異なる人物と判断する(S35)。
また、S34の処理において、位置座標が移動可能な位置座標であった場合(S34において、YES)、次に、制御手段22は、前画像で人物の移動範囲が他の人物の移動範囲と重なっていたか判断する(S36)。
S36の処理において、制御手段が前画像で人物の移動範囲が他の人物の移動範囲と重なっていたと判断した場合(S36において、YES)、特徴量抽出手段18は、人物の特徴量を求める(S37)。また、照合手段19は、S37の処理により得られる特徴量が一致するか否かを判断する(S38)。
ここで、S38の処理において、特徴量が一致した場合(S38において、YES)、又はS36の処理において、制御手段22が前画像で人物の移動範囲が他の人物の移動範囲と重なっていなかったと判断した場合(S36において、NO)、判定手段17は、同一の人物と判断し(S39)、その人物が今まで画面に表示している場合には、その後の移動経路を表示させるための画面生成を行い(S40)、その画面をディスプレイ等の出力手段12に表示して(S41)、引き続き人物の追跡を行うためS23に戻り後続の処理を行う。
また、S38の処理において、特徴量が一致しなかった場合(S38において、NO)、判定手段17は、異なる人物と判断する(S42)。また、S35の処理又はS42の処理が終了後、それぞれが異なる人物と判断されているため、例えば新規人物を表示させるための画面生成を行い(S43)、その画面をディスプレイ等の出力手段12に表示し(S44)、処理を終了する。
このように、上述した第2の実施形態によれば、複数の人物が撮影された画像上で交差した(重なった)場合でも人物を特定することができるため、高精度な人物追跡を実現することができる。
具体的には、対象物の特徴量を比較して照合を行うため、複数の対象物が重なった場合であっても、正確に対象物の追跡を行うことができる。
<人物追跡:第3の実施形態>
次に、上述した追跡装置10を用いた画像中の人物追跡の第3の実施形態について説明する。図7は、第3の実施形態における人物追跡の一例を示す図である。第3の実施形態では、例えば一度検出した人物が物等によるカメラ23からの死角で撮影した画像から検出されなくなってしまった場合に、再度その人物を検出したときに、特徴量を用いて同一人物か否かを判定し、同一人物の場合には経路を繋げて追跡を継続するための人物追跡手法について説明する。
まず、カメラ23から画像情報を入力し(S51)、対象物検出手段14は、その画像に人物が1以上含まれているか否かを判断する(S52)。
ここで、S52の処理において、人物を検出できなかった場合(S52において、NO)、S51に戻って再び画像情報を入力があるまで待機する。更に、S52の処理において、人物を1又は複数検出した場合(S52において、YES)、以下の処理を検出した個々の人物毎に行う。
距離・位置測定手段15は、人物の距離を測定し(S53)、測定した距離情報に基づいて人物の位置を測定する(S54)。更に、移動範囲取得手段16は、人物の1フレームあたりの移動範囲を測定し(S55)、測定した結果から移動可能な位置座標を求める(S56)。なお、上述したS51〜S56の処理については、第1の実施形態(S01〜S06)と同様であるため、ここでの詳細な説明については省略する。
次に、制御手段22は、検出された人物が新規人物(新たに検出された人物等)か否かを判断する(S57)。S57の処理では、例えば人物の出現場所が予め設定された場所(例えば、監視カメラの撮影範囲の外周や入退館口、出入口等)であるか否かで判断する。
ここで、制御手段22は、S57の処理において、新規人物であると判断された場合(S57において、YES)、特徴量抽出手段18は人物の特徴量を求める(S58)。なお、新規人物を最初に検出した場合には、いつ物等の遮蔽物による死角で人物が検出されなくなるかわからないため、必ず特徴量を求めるようにする。
また、S58の処理の終了後、又はS57の処理において、新規人物ではないと判断された場合(S57において、NO)、既に新規人物であると判断されたときに特徴量を求めているため、新規ではない2度目以降の検出の場合には、特徴量を求めなくてもよく、その場合には、再びカメラ23から次の画像情報を入力する(S59)。
また、対象物検出手段14は、その画像に人物が含まれているか否かを判断する(S60)。ここで、S60の処理において、人物を検出した場合(S60において、YES)、距離・位置測定手段15は、人物の距離を測定し(S61)、測定した距離情報に基づいて人物の位置を測定する(S62)。
次に、判定手段17は、測定された人物の位置座標と前画像で測定された移動可能な位置座標とを比較する(S63)。また、比較の結果、位置座標が移動可能な位置座標か否かを判断し(S64)、位置座標が移動可能な位置座標であった場合(S64において、YES)、判定手段17は、同一の人物と判断し(S65)、その人物が今まで画面に表示している場合には、その後の移動経路を表示させるための画面生成を行い(S66)、その画面をディスプレイ等の出力手段12に表示して(S67)、引き続き人物の追跡を行うためS55に戻り後続の処理を行う。
また、S64の処理において、位置座標が移動可能な位置座標でなかった場合(S64において、NO)、判定手段17は、異なる人物と判断し(S68)、例えば新規人物を表示させるための画面生成を行い(S69)、画面を表示して(S70)、処理を終了する。なお、上述したS57〜S70の処理については、第1の実施形態(S07〜S18)と同様であるため、ここでの詳細な説明については省略する。
また、第3の実施形態では、S60の処理において、人物を検出していない場合(S60において、NO)、つまり、物等の遮蔽物により人物を検出できなくなる場合、所定時間まで画像情報の入力を待ち(S71)、入力した画像に対して人物を検出したか否かを判断する(S72)。つまり、第1の実施形態では、連続して人物が検出できない場合は処理を終了させていたが、物等の遮蔽物による死角で人物が画像から検出できなくなった場合には、人物が検出できるまで、繰り返し処理を行う。
したがって、S72の処理において、人物を検出していない場合(S72において、NO)、S71に戻って再び画像情報を入力があるまで待機する。更に、S72の処理において、人物を1又は複数検出した場合(S72において、YES)、以下の処理を検出した個々の人物毎に行う。
距離・位置測定手段15は、人物の距離を測定し(S73)、測定した距離情報に基づいて人物の位置を測定する(S74)。次に、特徴量抽出手段18は、人物の特徴量を求める(S75)。また、照合手段は、S75の処理により得られる特徴量が画像中の人物と一致するか否かを判断する(S76)。
ここで、S76の処理において、特徴量が一致した場合(S76において、YES)、判定手段17は、同一の人物と判断し(S77)、その人物が今まで画面に表示している場合には、その後の移動経路を表示させるための画面生成を行い(S78)、その画面をディスプレイ等の出力手段12に表示して(S79)、引き続き人物の追跡を行うためS55に戻り後続の処理を行う。
また、S76の処理において、特徴量が一致する場合(S76において、NO)、上述したように、判定手段17は、異なる人物と判断し(S68)、例えば新規人物を表示させるための画面生成を行い(S69)、画面を表示して(S70)、処理を終了する。
これにより、画像に含まれる対象物を高精度に追跡することができる。また、物等の遮蔽物により人物が所定時間内で検出できなくなった場合でも、今までの位置情報等に基づいて人物の追跡を行うことができる。
<人物追跡:第4の実施形態>
次に、上述した追跡装置10を用いた画像中の人物追跡の第4の実施形態について説明する。図8は、第4の実施形態における人物追跡の一例を示す図である。第4の実施形態では、例えば一度検出した人物が追跡途中で移動速度を上げることで、予め設定される移動可能範囲から超えた(外れた)場合に、特徴量を用いて同一人物か否かを判断し、経路を繋げて追跡を継続するための人物追跡手法について説明する。
まず、カメラから画像情報を入力し(S81)、対象物検出手段14は、その画像に人物が1以上含まれているか否かを判断する(S82)。
ここで、S82の処理において、人物を検出できなかった場合(S82において、NO)、S81に戻って再び画像情報を入力があるまで待機する。更に、S82の処理において、人物を1又は複数検出した場合(S82において、YES)、以下の処理を検出した個々の人物毎に行う。
距離・位置測定手段15は、人物の距離を測定し(S83)、測定した距離情報に基づいて人物の位置を測定する(S84)。更に、移動範囲取得手段16は、人物の1フレームあたりの移動範囲を測定し(S85)、測定した結果から移動可能な位置座標を求める(S86)。
次に、制御手段22は、検出された人物が新規人物か否かを判断する(S87)。ここで、制御手段22は、S87の処理において、新規人物であると判断された場合(S87において、YES)、特徴量抽出手段18は人物の特徴量を求める(S88)。
また、S88の処理の終了後、又はS57の処理において、新規人物ではないと判断された場合(S87において、NO)、再びカメラ23から次の画像情報を入力し(S89)、対象物検出手段14は、その画像に人物が含まれているか否かを判断する(S90)。なお、上述したS81〜S90の処理については、第1の実施形態(S51〜S60)と同様であるため、ここでの詳細な説明については省略する。
ここで、S90の処理において、人物を検出できなかった場合(S90においてNO)、人物が撮影範囲から抜けたと判断して処理を終了する。また、S90の処理において、人物を検出した場合(S90において、YES)、距離・位置測定手段15は、人物の距離を測定し(S91)、測定した距離情報に基づいて人物の位置を測定する(S92)。
次に、判定手段17は、測定された人物の位置座標と前画像で測定された移動可能な位置座標とを比較し(S93)、検出した人物が移動可能な位置座標(範囲)内にいるか否かを判断する(S94)。S94の処理において、移動可能な位置座標にない場合(S94において、NO)、一度検出した人物の移動速度が上がったことにより、設定された移動可能範囲を超えてしまった可能性があるため、人物の特徴量を求め(S95)、求めた特徴量が画像の人物と一致するか否かを判断する(S96)。つまり、追跡していた人物が所定の移動可能範囲を超えてしまった場合でも、特徴量が一致すれば同一人物と判断する。
したがって、S96の処理において、特徴量が一致する場合(S96において、YES)、又は上述したS94の処理において、人物が移動可能な位置座標にいる場合(S96において、YES)、判定手段17は、同一の人物と判断し(S97)、その人物が今まで画面に表示している場合には、その後の移動経路を表示させるための画面生成を行い(S98)、その画面をディスプレイ等の出力手段12に表示して(S99)、引き続き人物の追跡を行うためS85に戻り後続の処理を行う。
また、S94の処理において、特徴量が一致しない場合(S96において、NO)、判定手段17は、異なる人物と判断し(S100)、例えば新規人物を表示させるための画面生成を行い(S101)、画面を表示して(S102)、処理を終了する。
これにより、画像に含まれる対象物を高精度に追跡することができる。また、人物が移動速度を変更した場合であっても正確に対象物の追跡を行うことができる。なお、上述の第1〜第4の実施形態は、組み合わせて適用してもよい。
<画面生成例>
次に、本発明における画面生成手段20で生成される画面の一例について、図を用いて説明する。図9は、表示画面の一例について説明するための一例を示す図である。なお、図9の例では、一例として画像に二人の人物が映っている例について説明する。図9に示すように、表示画面50は、大別すると、画像表示領域51と、測定結果表示領域52と、追跡結果表示領域53とを有するよう構成されている。
画像表示領域51は、カメラ23により撮影された測定対象の画像を表示する。このとき、上述した画面中のどの部分が顔であるか、また顔の中心や顔の大きさ(幅、長さ)を測定するための顔領域62の情報も表示される。具体的には、図9に示すように、画像表示領域51として、人物61−1,61−2のそれぞれの顔領域62−1,62−2が表示されている。なお、本発明においてはこれに限定されず、例えば顔領域62でなく、目や鼻、口、耳等の各特徴点自体を点等で示してもよい。
測定結果表示領域52には、実際に測定した結果が表示される。ここで、測定結果表示領域52に示される測定データとしては、例えば顔の大きさや、カメラ23と人物61との距離、顔の中心座標、カメラ23と人物61との角度等がある。なお、顔の大きさは、例えばある基準を100とした場合の割合を示し、顔の中心座標は、画像表示領域51の解像度(例えば、320×240等)を基準にして設定される。
追跡結果表示領域53は、2次元平面におけるカメラ23の位置と、カメラ23に対応する人物61−1,61−2の位置(座標)が点63−1,63−2で示されており、またカメラ23の所定位置からの距離(1m,2m,3m,・・・)が表示されている。
また、追跡結果表示領域53には、人物61−1,61−2の位置の点63−1,63−2を基準にした移動可能範囲64−1,64−2が表示される。また、追跡結果表示領域53には、カメラ23の撮影方向に対応した人物61−1,61−2の進行方向を示す矢印65−1,65−2が表示される。なお、点63−1,63−2を基準にした矢印65−1,65−2は、人物毎の移動速度に応じて矢印の大きさや長さを変更させてもよい。
更に、追跡結果表示領域53は、人物61−1,62−2の移動経路66−1,66−2を示しても良い。なお、本発明においては、追跡結果表示領域53に表示される内容はこれに限定されず、カメラ23と人物61との距離や位置関係がわかるような表示内容であればよい。
なお、表示画面50に表示される項目は上述した内容に限定されず、例えば人物の位置(座標)や画像を取得したときの時間情報を表示したり、経時的に取得した測定結果や移動速度等を並べて表示してもよく、追跡経過時間や予想される移動方向、所定場所への到達時間等の時間情報等を表示してもよい。
更に、例えばメニュー表示領域を設けてもよく、メニュー表示領域により表示画面50に表示させる対象となる画像を読み出したり、本発明により測定された距離や位置の情報を表示したり、表示された結果を他の蓄積領域にファイル名を付けて記録させる等の処理を行うことができる。
このように、表示画面50を生成してディスプレイ等に表示することにより、使用者等は、画像や映像を撮影した撮像手段の所定位置から画像や映像に映っている対象物までの距離や対象物の移動経路を容易に把握することができる。これにより、使用者は、監視や警備業務等を高精度に行うことができる。
上述したように本発明によれば、画像に含まれる対象物を高精度に追跡することができる。具体的には、ステレオカメラではなく、所定の数式等を用いて求めた撮像手段に対する対象物の距離及び位置を用いて対象物の追跡を行うため、撮像手段と対象物との距離が遠い場合であっても、距離に関係なく正確に対象物の追跡を行うことができる。
また、本発明によれば、対象物の特徴量を比較して照合を行うため、複数の対象物が重なった場合であっても、正確に対象物の追跡を行うことができる。また、本発明によれば、新たな対象物を検出した場合であっても、それに対応して迅速に対象物の追跡を行うことができる。また、本発明によれば、画像生成手段により追跡結果を使用者等に容易に把握させることができる。これにより、使用者は、監視や警備業務等を高精度に行うことができる。また、上述した本発明における追跡処理に対応する追跡プログラムをコンピュータにインストールすることにより、容易に追跡処理を実現することができる。
また、本発明では、具体的には、上述した距離や位置測定の数式を用いてカメラと人物との距離や位置を測定することができるため、1台のカメラによって測定処理を行うことができる。
なお、本発明における追跡手法は、例えば銀行や百貨店、スーパー、コンビニ、病院、住宅周辺等の監視システム等に適用することで、より高精度に不審者を追跡することができる。
以上本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形、変更が可能である。
本発明における追跡装置の概略構成の一例を示す図である。 本発明における追跡処理が実現可能なハードウェア構成の一例を示す図である。 第1の実施形態における人物追跡の一例を示す図である。 移動範囲の測定方法について説明するための一例の図である。 第2の実施形態における人物追跡の一例を示す図である。 人物の移動範囲が重なっている例について説明するための一例の図である。 第3の実施形態における人物追跡の一例を示す図である。 第4の実施形態における人物追跡の一例を示す図である。 表示画面の一例について説明するための一例を示す図である。
符号の説明
10 追跡装置
11 入力手段
12 出力手段
13 蓄積手段
14 対象物検出手段
15 距離・位置測定手段
16 移動範囲取得手段
17 判定手段
18 特徴量抽出手段
19 照合手段
20 画面生成手段
21 送受信手段
22 制御手段
23 カメラ(撮像手段)
31 入力装置
32 出力装置
33 ドライブ装置
34 補助記憶装置
35 メモリ装置
36 CPU
37 ネットワーク接続装置
38 記録媒体
41 人物
42 移動可能範囲
43 重複範囲
50 表示画面
51 画像表示領域
52 測定結果表示領域
53 追跡結果表示領域
61 人物
62 顔領域
63 点
64 移動可能範囲
65 矢印
66 移動経路

Claims (9)

  1. 撮像手段から得られる画像情報に含まれる対象物を経時的に追跡する追跡装置において、
    前記撮像手段により所定の間隔で撮影された画像情報を入力する画像入力手段と、
    入力した画像情報から前記対象物を検出する対象物検出手段と、
    前記対象物検出手段により前記対象物を検出した場合に、前記撮像手段に対する前記対象物の距離及び位置を測定する距離・位置測定手段と、
    前記対象物に対する画像1フレームあたりの移動範囲を取得する移動範囲取得手段と、
    前記移動範囲取得手段により得られる移動範囲から、各フレーム毎に検出された対象物が同一であるか否か判定する判定手段とを有することを特徴とする追跡装置。
  2. 前記判定手段は、前記移動範囲取得手段により得られた移動範囲が他の対象物の移動範囲と重なるか否かを判断し、
    前記判定手段により移動範囲が重なると判断された場合に、各対象物の特徴量を抽出する特徴量抽出手段と、
    前記特徴量抽出手段により得られる前記各対象物毎に特徴量の照合を行う照合手段とを有することを特徴とする請求項1に記載の追跡装置。
  3. 前記判定手段は、前記対象物検出手段により得られた対象物が新たに検出した対象物であるか否かを判断し、
    前記判定手段により新たに検出した対象物であると判断された場合に、前記対象物の特徴量を抽出する特徴量抽出手段と、
    前記特徴量抽出手段により得られる既に存在する対象物の特徴量と、新たに検出した対象物の特徴量との照合を行う照合手段とを有することを特徴とする請求項1に記載の追跡装置。
  4. 前記撮像手段を基準にした前記対象物の位置を表示する画面を生成する画面生成手段を有することを特徴とする請求項1乃至3の何れか1項に記載の追跡装置。
  5. 撮像手段から得られる画像情報に含まれる対象物を経時的に追跡する追跡方法において、
    前記撮像手段により所定の間隔で撮影された画像情報を入力する画像入力ステップと、
    入力した画像情報から前記対象物を検出する対象物検出ステップと、
    前記対象物検出ステップにより前記対象物を検出した場合に、前記撮像手段に対する前記対象物の距離及び位置を測定する位置・距離測定ステップと、
    前記対象物に対する画像1フレームあたりの移動範囲を取得する移動範囲取得ステップと、
    前記移動範囲取得ステップにより得られる移動範囲から、各フレーム毎に検出された対象物が同一であるか否か判定する判定ステップとを有することを特徴とする追跡方法。
  6. 前記判定ステップは、前記移動範囲取得ステップにより得られた移動範囲が他の対象物の移動範囲と重なるか否かを判断し、
    前記判断ステップにより移動範囲と重なると判断された場合に、各対象物の特徴量を抽出する特徴量抽出ステップと、
    前記特徴量抽出ステップにより得られる前記各対象物毎に特徴量の照合を行う照合ステップとを有することを特徴とする請求項5に記載の追跡方法。
  7. 前記判定ステップは、前記対象物検出ステップにより得られた対象物が新たに検出した対象物であるか否かを判断し、
    前記判定ステップにより新たに検出した対象物であると判断された場合に、前記対象物の特徴量を抽出する特徴量抽出ステップと、
    前記特徴量抽出ステップにより得られる既に存在する対象物の特徴量と、新たに検出した対象物の特徴量との照合を行う照合ステップとを有することを特徴とする請求項5に記載の追跡方法。
  8. 前記撮像手段を基準にした前記対象物の位置を表示する画面を生成する画面生成ステップを有することを特徴とする請求項5乃至7の何れか1項に記載の追跡方法。
  9. 前記請求項5乃至8の何れか1項に記載された追跡方法をコンピュータに実行させるための追跡プログラム。
JP2007057855A 2007-03-07 2007-03-07 追跡装置、追跡方法、及び追跡プログラム Active JP4987513B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007057855A JP4987513B2 (ja) 2007-03-07 2007-03-07 追跡装置、追跡方法、及び追跡プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007057855A JP4987513B2 (ja) 2007-03-07 2007-03-07 追跡装置、追跡方法、及び追跡プログラム

Publications (2)

Publication Number Publication Date
JP2008217714A true JP2008217714A (ja) 2008-09-18
JP4987513B2 JP4987513B2 (ja) 2012-07-25

Family

ID=39837642

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007057855A Active JP4987513B2 (ja) 2007-03-07 2007-03-07 追跡装置、追跡方法、及び追跡プログラム

Country Status (1)

Country Link
JP (1) JP4987513B2 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010098404A (ja) * 2008-10-15 2010-04-30 Nec Corp 撮影装置、撮影装置付き携帯端末、人物撮影画像処理方法、人物撮影画像処理プログラムおよび記録媒体
CN101894376A (zh) * 2009-05-21 2010-11-24 富士胶片株式会社 人物跟踪方法和人物跟踪装置
JP2012164093A (ja) * 2011-02-04 2012-08-30 Secom Co Ltd 顔画像認証装置
WO2015015869A1 (ja) 2013-08-02 2015-02-05 オリンパス株式会社 画像処理装置、画像処理方法及びプログラム
WO2015198592A1 (ja) * 2014-06-24 2015-12-30 日本電気株式会社 情報処理装置、情報処理方法および情報処理プログラム
JP2018533805A (ja) * 2015-11-12 2018-11-15 アリババ グループ ホウルディング リミテッド 顔位置追跡方法、装置及び電子デバイス
JP2019204518A (ja) * 2018-07-02 2019-11-28 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド 人物追跡方法、装置、機器及び記憶媒体

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003044859A (ja) * 2001-07-30 2003-02-14 Matsushita Electric Ind Co Ltd 動き追跡装置及び人物追跡方法
JP2004110448A (ja) * 2002-09-19 2004-04-08 Nippon Hoso Kyokai <Nhk> 映像オブジェクト識別・追跡装置、その方法及びそのプログラム
JP2005063036A (ja) * 2003-08-08 2005-03-10 Nissan Motor Co Ltd 物体追跡装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003044859A (ja) * 2001-07-30 2003-02-14 Matsushita Electric Ind Co Ltd 動き追跡装置及び人物追跡方法
JP2004110448A (ja) * 2002-09-19 2004-04-08 Nippon Hoso Kyokai <Nhk> 映像オブジェクト識別・追跡装置、その方法及びそのプログラム
JP2005063036A (ja) * 2003-08-08 2005-03-10 Nissan Motor Co Ltd 物体追跡装置

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010098404A (ja) * 2008-10-15 2010-04-30 Nec Corp 撮影装置、撮影装置付き携帯端末、人物撮影画像処理方法、人物撮影画像処理プログラムおよび記録媒体
CN101894376A (zh) * 2009-05-21 2010-11-24 富士胶片株式会社 人物跟踪方法和人物跟踪装置
JP2010273112A (ja) * 2009-05-21 2010-12-02 Fujifilm Corp 人物追跡方法、人物追跡装置および人物追跡プログラム
JP2012164093A (ja) * 2011-02-04 2012-08-30 Secom Co Ltd 顔画像認証装置
CN105407787A (zh) * 2013-08-02 2016-03-16 奥林巴斯株式会社 图像处理装置、图像处理方法以及程序
WO2015015869A1 (ja) 2013-08-02 2015-02-05 オリンパス株式会社 画像処理装置、画像処理方法及びプログラム
US9898664B2 (en) 2013-08-02 2018-02-20 Olympus Corporation Image processing device, image processing method, and information storage device
WO2015198592A1 (ja) * 2014-06-24 2015-12-30 日本電気株式会社 情報処理装置、情報処理方法および情報処理プログラム
US9836655B2 (en) 2014-06-24 2017-12-05 Nec Corporation Information processing apparatus, information processing method, and computer-readable medium
JP2018533805A (ja) * 2015-11-12 2018-11-15 アリババ グループ ホウルディング リミテッド 顔位置追跡方法、装置及び電子デバイス
US11003893B2 (en) 2015-11-12 2021-05-11 Advanced New Technologies Co., Ltd. Face location tracking method, apparatus, and electronic device
US11423695B2 (en) 2015-11-12 2022-08-23 Advanced New Technologies Co., Ltd. Face location tracking method, apparatus, and electronic device
JP2019204518A (ja) * 2018-07-02 2019-11-28 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド 人物追跡方法、装置、機器及び記憶媒体
US11348354B2 (en) 2018-07-02 2022-05-31 Baidu Online Network Technology (Beijing) Co., Ltd. Human body tracing method, apparatus and device, and storage medium

Also Published As

Publication number Publication date
JP4987513B2 (ja) 2012-07-25

Similar Documents

Publication Publication Date Title
JP6905081B2 (ja) 車両損失査定画像を取得するための方法および装置、サーバ、ならびに端末デバイス
JP4987513B2 (ja) 追跡装置、追跡方法、及び追跡プログラム
JP4541316B2 (ja) 映像監視検索システム
US10796543B2 (en) Display control apparatus, display control method, camera system, control method for camera system, and storage medium
KR102111935B1 (ko) 표시 제어장치, 표시 제어방법 및 프로그램
CN107766788B (zh) 信息处理装置、其方法和计算机可读存储介质
JP4575829B2 (ja) 表示画面上位置解析装置及び表示画面上位置解析プログラム
US8073206B2 (en) Face feature collator, face feature collating method, and program
KR100879623B1 (ko) Ptz 카메라를 이용한 자동화된 광역 감시 시스템 및 그방법
KR101530255B1 (ko) 객체 자동 추적 장치가 구비된 cctv 시스템
US20140348380A1 (en) Method and appratus for tracking objects
JP2008109552A (ja) 追跡機能付き撮像装置
JP5754990B2 (ja) 情報処理装置、情報処理方法及びプログラム
US20170162195A1 (en) Information processing apparatus, information processing method, and recording medium
US20200036895A1 (en) Image processing apparatus, control method thereof, and image capture apparatus
JP6494418B2 (ja) 画像解析装置、画像解析方法、およびプログラム
JP2009048347A (ja) 画像処理装置、画像処理方法、および、画像処理プログラム
EP3018902B1 (en) Monitoring camera system
US20170357855A1 (en) Information processing apparatus, information processing method, and storage medium
JP2012003364A (ja) 人物動作判定装置およびそのプログラム
JP4821355B2 (ja) 人物追跡装置、人物追跡方法および人物追跡プログラム
JPWO2018150569A1 (ja) ジェスチャー認識装置、ジェスチャー認識方法、ジェスチャー認識装置を備えたプロジェクタおよび映像信号供給装置
JP6972962B2 (ja) 物体追跡装置、物体追跡方法、および、物体追跡プログラム
JP6766009B2 (ja) 監視装置、監視方法、コンピュータプログラム、及び記憶媒体
EP3477544A1 (en) Information processing apparatus, information processing method, imaging apparatus, network camera system, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110812

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110823

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111021

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120327

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120425

R150 Certificate of patent or registration of utility model

Ref document number: 4987513

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150511

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250