JP2017010224A - 物体追尾装置、物体追尾方法及びプログラム - Google Patents

物体追尾装置、物体追尾方法及びプログラム Download PDF

Info

Publication number
JP2017010224A
JP2017010224A JP2015124205A JP2015124205A JP2017010224A JP 2017010224 A JP2017010224 A JP 2017010224A JP 2015124205 A JP2015124205 A JP 2015124205A JP 2015124205 A JP2015124205 A JP 2015124205A JP 2017010224 A JP2017010224 A JP 2017010224A
Authority
JP
Japan
Prior art keywords
detection
area
template
detected
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015124205A
Other languages
English (en)
Other versions
JP6532317B2 (ja
JP2017010224A5 (ja
Inventor
睦凌 郭
Muling Guo
睦凌 郭
山本 真司
Shinji Yamamoto
真司 山本
一郎 梅田
Ichiro Umeda
一郎 梅田
矢野 光太郎
Kotaro Yano
光太郎 矢野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015124205A priority Critical patent/JP6532317B2/ja
Publication of JP2017010224A publication Critical patent/JP2017010224A/ja
Publication of JP2017010224A5 publication Critical patent/JP2017010224A5/ja
Application granted granted Critical
Publication of JP6532317B2 publication Critical patent/JP6532317B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】追尾する物体が他の物体などと交差するような場合に正しく追尾できるようにする。
【解決手段】物体の検出領域から前景領域を抽出し、物体の検出に利用した認識モデルに対応した前景マスクに基づいて交差を検知する。そして、交差を検知した場合にのみ物体の特徴量を示すテンプレートを更新する。一方、物体を検出できないときは、過去のフレームにおける画像領域に基づいて作成したテンプレートを用いて照合を行って物体を追尾するようにする。テンプレートには、交差前の特徴量に他の物体の情報が混入しにくいため、照合精度を高めることができる。
【選択図】図1

Description

本発明は、特に、物体の交差が生じるような状況で物体を追尾するために用いて好適な物体追尾装置、物体追尾方法及びプログラムに関する。
近年、映像機器においてインテリジェント化が普及している。例えば監視カメラに人体検出機能を搭載し、人数をカウントしたり、お客様の意図を分析したり、異常動作を検知したり、危険領域の侵入を検知したりするなどの機能が提案されている。また、デジタルカメラなどの撮影装置で撮影された映像中の人物の位置を特定して追尾することにより、カメラのフォーカス、露出を自動制御する機能も注目されている。さらに人物以外に、犬、猫、花などの一般の物体に注目して、カメラを自動制御する機能も普及している。
映像機器のインテリジェント化の基盤は、機械学習による物体検出技術である。機械学習では、大量の物体及び非物体の学習サンプルから、物体と非物体とを区別する特徴量を抽出し、認識モデルを作成する。画像から物体を検出する際には、まず原画像のサイズをスケーリングしてピラミッドレイヤを作成する。そして、各ピラミッドレイヤについてラスタースキャンを行い、認識モデルに記述した各特徴量の判別器の応答を組み合わせることにより、異なるサイズの物体を検出する。
この認識モデルを作成する代表的な手法は、adaboost学習によりカスケード型の識別器を作成する手法である。この方法では、認識しようとする物体を複数のカテゴリに分類し、カテゴリ毎に認識モデルを作成する。例えば、人体を正面人体、側面人体、及び半側面人体の三つのカテゴリに分け、類似した人体を集めて認識モデルを学習することにより、認識精度を向上させるようにする。また、前述のカスケード型の識別器は、複数の弱判別器を直列で連結して構成される。それぞれの弱判別器は、学習した認識モデルに基づき、現在のスキャンウィンドウの物体らしさの尤度を出力するとともに、閾値と比較し、物体であるかどうかを判定する。そして、全ての弱判別器を通過したスキャンウィンドウは物体と判定される。
一方、カメラで撮影した動画を時系列画像に静止画化して時系列画像の連続フレームに物体検出技術を適用する場合には、前記カスケード型の識別器だけで物体を検出することは不十分である。例えば時系列画像の前後フレームで物体の姿勢が変化したり照明条件が変化したりする場合があり、この場合には物体の見え方が変化するため、前記識別器で検出できなくなることがしばしば発生する。そこで、追尾技術を利用し、探索領域に物体を検出できたフレームにおいて、前記識別器の検出結果を記憶した軌跡と対応付けて軌跡を更新する。一方、探索領域に物体を検出できなかったフレームにおいて物体の追尾を行い、追尾結果を記憶した軌跡と対応付けて軌跡を更新する。そして、更新した軌跡に基づき次フレームの探索領域を設定する。
ところが、一般に物体を追尾する場合には、物体が交差したり遮蔽されたりすると、追尾の精度が低下してしまう。そこで、物体を追尾する従来の技術として、非特許文献1に記載の方法では、動きモデルで予測した物体の位置と追尾で観測した物体の位置とから、予測及び追尾の精度に基づいた重み付きに従って平均位置を求め、軌跡を平滑化して安定化するようにしている。
また、非特許文献2に記載の方法では、物体を複数のパーティクルに分割し、それぞれ追尾して統合するようにしている。この方法では、追尾の確信度が低いパーティクルを消失させ、追尾の確信度が高いパーティクルに基づいてさらに多数のパーティクルを生成する。次に、各パーティクルについて、慣性と突発性とを考慮して各パーティクルの位置を予測し、追尾の確信度を求める。そして、求めた追尾の確信度を重みとして各パーティクルの平均位置を物体の位置として追尾を続ける。
さらに特許文献1に記載の方法では、物体の検出枠の交差を予測し、交差しない時の検出結果をテンプレートとして記憶し、このテンプレートを物体が交差した時のテンプレートの照合に利用して物体交差時の追尾精度を向上しようとしている。
特表2009−510541号公報
"An Introduction to the Kalman Filter," Greg Welch, Gray Bishop, SIGGRAPH 2001. "A tutorial on particle filters for online nonlinear/non-gaussian bayesian tracking(2002)," M. Sanjeev Arulampalam , Simon Maskell , Neil Gordon, IEEE TRANSACTIONS ON SIGNAL PROCESSING. VOL. 50, NO. 2. "Background Subtraction: Experiments and Improvements for ViBe," M. VAN DROOGENBROECK, and O. PAQUOT, Change Detection Workshop(CDW), Providence, Rhode Island, 6 pages, June 2012. David G. Lowe, "Distinctive image features from scale-invariant keypoints," International Journal of Computer Vision, 60, 2 (2004), pp. 91-110.
しかしながら、非特許文献1に記載の追尾方法では、追尾する物体が長時間交差または遮蔽されると、追尾を失敗してしまうことが多いという問題点がある。また、非特許文献2に記載の追尾方法では、追尾する物体が完全に遮蔽されると、追尾を続けることができないという問題点がある。
また、特許文献1に記載の追尾方法では、物体の検出枠間の交差を検知している。このため、追尾する物体が同種類物体の検出枠外の他の部位と交差したり遮蔽されたりした場合や、他種類の動体と交差したり遮蔽されたりした場合に、テンプレートに同種類物体の部位または動体の情報が多く混入し、交差時や遮蔽時に追尾を失敗しやすくなる。さらに、特許文献1に記載の追尾方法では、フレーム間差分とエッジとに基づいて物体を検出しており、認識モデルを利用せず物体の位置及び範囲を検出するため、対象とする物体以外の画像領域に誤追尾してしまう可能性がある。
本発明は前述の問題点に鑑み、追尾する物体が他の物体などと交差するような場合に正しく追尾できるようにすることを目的としている。
本発明に係る物体追尾装置は、動画の注目するフレームにおける物体の探索領域を過去のフレームにおける追尾結果に基づいて設定する設定手段と、前記設定手段によって設定された探索領域において前記物体の認識モデルを用いて前記物体を検出する検出手段と、前記検出手段によって検出された物体の検出領域から前景領域を抽出し、前記抽出した前景領域、及び前記認識モデルに対応するマスクを用いて前記物体の交差を検知する検知手段と、前記検知手段によって前記物体の交差が検知されなかった場合に、前記検出手段によって検出された物体の検出領域に基づいて、前記物体の特徴量を示すテンプレートを更新するテンプレート更新手段と、前記検出手段によって前記物体が検出されなかった場合に、前記テンプレート更新手段によって前記過去のフレームにおいて更新されたテンプレートと照合して前記設定手段によって設定された探索領域内から前記物体の画像領域を抽出する照合手段と、前記検出手段によって検出された物体の検出領域、または前記照合手段によって抽出された画像領域を追尾結果として更新する追尾結果更新手段と、を備えることを特徴とする。
本発明によれば、追尾する物体が他の物体などと交差するような場合に正しく追尾することができる。
第1の実施形態に係る物体追尾装置の機能構成例を示すブロック図である。 実施形態における物体追尾装置のハードウェア構成例を示すブロック図である。 第1の実施形態における物体を追尾する処理手順の一例を示すフローチャートである。 ピラミッドレイヤの各探索領域を説明するための図である。 カスケード型識別器の構成を説明するための図である。 前景マスク外の前景領域の割合の計算を説明するための図である。 第2の実施形態における物体を追尾する処理手順の一例を示すフローチャートである。 第3の実施形態における物体を追尾する処理手順の一例を示すフローチャートである。 第4の実施形態に係る物体追尾装置の機能構成例を示すブロック図である。 第4の実施形態における物体を追尾する処理手順の一例を示すフローチャートである。
以下、添付図面を参照しながら本発明の好適な実施形態について詳細に説明する。本実施形態では、動画の各フレームから物体を追尾する例について説明する。なお、本発明は以下の実施形態に限定されるものではなく、本発明の実施に有利な具体例を示すにすぎない。本発明の特徴となる機能を実現するものも本発明の範囲に含まれる。
(第1の実施形態)
図1は、本実施形態に係る物体追尾装置100の機能構成例を示すブロック図である。
図1において、物体追尾装置100は、画像取得部101と、探索領域設定部102と、物体識別部103と、軌跡結合部104と、交差検知部105とを備えている。さらに、テンプレート更新部106と、テンプレート照合部107と、テンプレート記憶部109と、処理制御部199とを備えている。また、交差検知部105は、さらに前景領域抽出部1051と、前景マスク記憶部1052と、割合計算部1053とを備えている。なお、これらの構成が行う処理については後述する。
図2は、本実施形態における物体追尾装置100のハードウェア構成例を示すブロック図である。
図2において、CPU201は、本実施形態の物体追尾装置100における各種制御を実行する。ROM202は、物体追尾装置100の立ち上げ時に実行されるブートプログラムや各種データを格納する。RAM203は、CPU201が処理するための制御プログラムを格納するとともに、CPU201が各種制御を実行する際の作業領域を提供する。キーボード204及びマウス205は、ユーザによる各種入力操作環境を提供する。
外部記憶装置206は、例えばハードディスクやフレキシブルディスク、光ディスク、磁気ディスク、光磁気ディスク、磁気テープ等である。ただし、外部記憶装置206は、制御プログラムや各種データを全てROM202に格納するようにする場合には、必ずしも必要な構成要素ではない。表示器207は、ディスプレイなどで構成され、本実施形態における処理の結果等を表示する。ネットワークインターフェース208は、外部装置と通信を行うためのインターフェースである。ビデオインターフェース209は、不図示の撮像部と同軸ケーブルを介してフレーム画像を取り込むためのインターフェースである。また、バス211は、上記の各構成を接続するためのバスである。
図3は、本実施形態における物体を追尾する処理手順の一例を示すフローチャートである。以下、図3のフローチャートを参照しながら本実施形態における処理の流れを詳細に説明する。
まず、ステップS301において、処理制御部199は、画像取得部101から取得した全てのフレーム画像について、ステップS302〜S315までの処理を繰り返し行うように制御する。次に、ステップS302において、処理制御部199は、後述する軌跡結合部104で求めた全ての軌跡について、ステップS303〜S313までの処理を繰り返し行うように制御する。
本実施形態では、説明を簡単にするため、物体毎に検出して追尾する処理のみを説明する。ここで追尾処理の初期設定を行うために、本実施形態に係る追尾処理の他に、例えばフレーム全体に対して公知のグローバル検出器を用意する。この場合、画像取得部101から取得した初めのフレーム画像の全体について検出処理を行い、グローバル検出結果を軌跡の始まりとする。一方、一部または全部のフレーム画像の全体についてグローバル検出を行い、グローバル検出結果を物体毎の軌跡と有効に統合することにより追尾の精度を向上させることもできる。また、グローバル検出器は、物体識別部103と同じ認識モデルを利用することも可能であり、この処理は本発明の本質部分ではないので詳細な説明を省略する。
ステップS303においては、探索領域設定部102は、過去のフレームにおいて軌跡結合部104で求めた各軌跡の最後位置とサイズとに基づき、処理対象となる注目するフレームにおける追尾対象の物***置を予測し、探索領域の中心位置を設定する。そして、図4(a)に示すように、物体のサイズを所定の比率で拡大したサイズを探索領域のサイズに設定する。
次に、ステップS304において、物体識別部103は、図4(b)に示すように、ステップS303で設定した物体の探索領域を所定数のピラミッドレイヤ(ピラミッド画像)に対応付ける。そして、各ピラミッドレイヤに対応する対応探索領域についてスキャンを行い、各カテゴリのそれぞれの認識モデルを用いて現在のスキャン位置にその物体があるか否かを判断する。本実施形態においては、学習した認識モデルを外部記憶装置206に複数保持しており、認識しようとする物体を複数のカテゴリに分類してカテゴリ毎に認識モデルを保持している。
図5は、物体識別部103に用いるカスケード型識別器の構成例を示す図である。カスケード型識別器を各ピラミッドレイヤの各スキャン位置に適用する際に、各ピラミッドレイヤにおいて認識する画像領域のサイズは、カスケード型識別器のサイズであり一定である。各ピラミッドレイヤは原画像に対して縮小の比率が異なるため、物体が遠近移動して物体のサイズが変化する時にも、物体を識別することができる。以下、各ピラミッドレイヤの各スキャン位置における、カスケード型識別器(すなわち認識モデル)のサイズに正規化した画像領域を正規化局所領域と呼ぶことにする。
図5に示すように、カスケード型識別器は複数の識別器を直列で連結して構成される。各識別器は、各認識モデルに記述した特徴量の位置、サイズ、タイプ、および尤度対応法則などに従って、各正規化局所領域の物体らしさを示す尤度を累積し、認識モデルに記述した識別閾値と比較する。そして、ある識別器で累積尤度が閾値より小さい場合には、その時点で識別する正規化局所領域を非物体として拒否する。そして、図5に示すように、全ての識別器を通過した場合に正規化局所領域を物体として識別する。
ステップS304においては、認識モデルを用いて物体の位置とサイズとを正確に識別できるため、その後、後述するステップS313のテンプレート照合処理において追尾物体を正しい位置に校正することができる。また、探索領域に制限して識別を行うため、高速に識別することができる。
次に、ステップS305において、物体識別部103は、ステップS304の処理結果である各ピラミッドレイヤにおける正規化局所領域の識別結果を統合する。通常、一つの物体を複数の近隣レイヤで識別したり、近隣位置において複数の物体を識別したりすることが多い。そのため、本ステップにおいて、ステップS304で識別された全ての正規化局所領域を物体毎に分離し、同じ物体の複数の正規化局所領域の位置及びサイズについて原画像における平均値を求め、物体の位置とサイズとを検出する。
次に、ステップS306において、処理制御部199は、処理対象の軌跡の探索領域において物体が検出されたか否かを判断する。探索領域に物体が検出された軌跡については、ステップS307〜S311までの処理を行い、探索領域に物体が検出されなかった軌跡については、ステップS312〜S313までの処理を行うように制御する。
ステップS307においては、交差検知部105の前景領域抽出部1051は、ステップS305で検出された物体の領域(以下、検出領域)について背景差分を計算し、前景領域を抽出する。本実施形態では、監視カメラで撮影された映像を想定しているため、画像取得部101から取得したフレーム画像における背景は固定である。したがって、背景差分は単純に計算することができ、非特許文献3に記載の方法を用いることにより、前景領域を抽出する。
次に、ステップS308において、割合計算部1053は、ステップS304で利用した認識モデルに基づき、前景マスク記憶部1052に記憶されている各カテゴリの認識モデルの前景マスクを読み出す。このとき、ステップS304で正規化局所領域においてカスケード型識別器を通過した認識モデルのカテゴリが複数存在する場合、カスケード型識別器を通過した最も多い認識モデルの前景マスクを読み出す。
ここで、認識モデルの前景マスクは、認識モデルを学習する際に利用した本カテゴリの正規化画像の平均画像を利用して物体領域を二値化した正規化画像である。したがって、前景マスク記憶部1052に記憶されている前景マスクの数は認識モデルのカテゴリ数と同じである。
次に、ステップS309において、割合計算部1053は、まず、物体の検出領域を認識モデルのサイズに正規化する。そして、図6に示すように、正規化した検出領域における前景領域と、前景マスクの背景領域とをAND演算して、前景マスク以外の前景領域(画素数)を求める。そして、正規化した検出領域との比率を計算し、割合を求める。
次に、ステップS310において、処理制御部199は、前景マスク以外の前景領域の正規化した検出領域に占める割合が所定の閾値を超えているか否かを判断する。この判断の結果、当該割合が閾値を超えていない場合は追尾する物体が他の物体と交差していないと判断し、ステップS311に進む。一方、当該割合が閾値を超えている場合は追尾する物体が他の物体と交差していると判断するため、ステップS314に進み、次の軌跡の処理を行う。
ステップS311においては、テンプレート更新部106は、検出領域の画像データに基づき、追尾用物体の色や、輪郭や、テクスチャ等の特徴量をテンプレートとして作成し、テンプレート記憶部109に記憶する。なお、既にテンプレートが作成されている場合は既存のテンプレートと置き換えて更新する。
ここで、物体の特徴量(テンプレート)としては、例えば物体のRGBヒストグラムが挙げられる。この場合は、物体の画像領域における各画素のRGB値を所定ビン数に量子化し、RGBの各量子化値を連結したindexに投票し、RGBヒストグラムを作成する。例えば、24ビットの画像において、各画素のRGBのそれぞれの値は8ビットであり、RGB各値を3ビット(すなわち8ビン)に量子化して連結すると、9ビットのindexになる。そして、物体の画像領域の各画素が9ビットのindexに投票し、RGBヒストグラムを生成する。
また、物体の特徴量の他の例として、非特許文献4に記載のSIFT(Scale-Invariant Feature Transform)特徴量が挙げられる。SIFT特徴量は、DoG(Difference-of-Gaussian)処理により抽出したキーポイントを中心とし、所定サイズの領域に勾配のヒストグラムをスケールと回転不変のベクトルに変換して得られた特徴量である。
一方、ステップS306の判断の結果、探索領域において物体を検出できなかった場合は、ステップS312に進む。そして、ステップS312において、テンプレート照合部107は、前フレームもしくはそれ以前に生成または更新された、処理対象の軌跡に係る物体のテンプレートをテンプレート記憶部109から読み出す。
次に、ステップS313において、テンプレート照合部107は、読み出した物体のテンプレートを用いて探索領域における画像領域の照合を行い、物体と最も類似した領域の位置及びサイズを求める。例えば、テンプレートが物体のRGBヒストグラムの場合、前フレームと現在のフレームとで画素数の変化が大きい色の画素位置に大きい重みを付与して平均位置を求める。そして、照合位置を移動するmean−shift追跡方法を利用することにより物体の軌跡を特定する。なお、物体と最も類似した領域がテンプレートと大きく異なるような場合(差異が所定値よりも大きい場合)には、追尾ができないものと判断する。
ステップS314においては、処理制御部199は、全ての軌跡についてステップS303〜S313までの処理を繰り返したか否かを判断する。この判断の結果、まだ処理を行っていない軌跡がある場合は次の軌跡について処理を行うように制御する。一方、全ての軌跡について処理を行った場合は、ステップS315に進む。
ステップS315においては、軌跡結合部104は、探索領域において物体を検出できた場合、またはステップS313の照合処理によって追尾できた場合に、検出または追尾結果を軌跡に追加して、軌跡の状態を更新する。また、物体を検出できず追尾もできなかった場合は、軌跡の状態を未対応に変更する。そして、物体の画像領域の位置及びサイズの情報を画像領域情報として外部記憶装置206に記憶する。また、グローバル検出器で新たに物体を検出した場合には、新たな軌跡を生成する。このとき、新たに検出された物体が、軌跡の状態が未対応に変更された物体であるか否かをテンプレートに基づいて判断することができる。そして、同一の物体である場合には、物体が完全に遮蔽されてその状態が解除されたと判断できる。このように軌跡結合部104は追尾結果更新手段として機能する。
次に、ステップS316において、処理制御部199は、ステップS302〜S315までの処理を全てのフレームについて行ったか否かを判断する。この判断の結果、次のフレームが存在する場合は次のフレームについて処理を行い、次のフレームが存在しない場合は処理を終了する。
以上のように本実施形態によれば、物体の認識モデルを用いて識別を行い、物体を追尾する。物体識別部103により物体を検出できないときは、物体識別部103により検出された過去のフレームにおける画像領域に基づいて作成したテンプレートを用いて照合を行って物体を追尾することにより、追尾する物体の誤追尾を抑制することができる。このテンプレートは交差する前に物体識別部103により識別された物体の見えにもとづく特徴量であり、交差前の特徴量に他の物体の情報が混入しにくいため、照合精度を高めることができる。また、検出領域において前景領域を抽出し、物体の検出に利用した認識モデルに対応した前景マスクに基づいて交差を検知するため、物体同士の交差を精度良く検知することができる。
なお、本実施形態においては、ステップS307で物体の検出領域内で前景領域を抽出したが、ステップS301とステップS302との間の処理として、フレーム画像全体について前景領域を抽出するようにしてもよい。この場合、ステップS307において、検出領域におけるフレーム画像の前景領域の情報を読み出すようにする。
また、本実施形態においては、ステップS309で前景マスク以外の前景領域の正規化した検出領域に占める割合で交差を判断したが、他の実装も考えられる。例えば、前景マスク以外の前景領域と前景マスクの領域との比率で交差を判断してもよい。また、前景マスク内における前景領域の画素数と正規化した検出領域内の前景領域の画素数との割合で交差を判断してもよい。さらに他の割合の計算方法が考えられるが、本質的に認識モデルの前景マスクと検出領域内の前景領域とを用いて交差を判断すればよい。
また、本実施形態においては、ステップS308で正規化局所領域においてカスケード型識別器を通過した認識モデルのカテゴリが複数存在する場合に、カスケード型識別器を通過した最も多い認識モデルの前景マスクを読み出した。一方、カスケード型識別器を通過した全部の認識モデルの前景マスクを読み出すようにしてもよい。この場合、ステップS309で、通過した認識モデル数と総認識モデル数との比を重みとして前景マスク内における前景領域の画素数を数え、正規化した検出領域内の前景領域の総画素数から引いて、前景マスク外の前景領域の画素数を求めてもよい。
また、本実施形態においては、ステップS305で正規化局所領域の統合処理を行ったが、本処理をステップS310またはS311の直後に行ってもよい。この場合、ステップS304において、物体を検出したそれぞれの正規化局所領域をそのまま物体の検出領域とする。そして、ステップS309においては、前景マスク外の前景領域の正規化局所領域に占める割合を計算してもよい。
(第2の実施形態)
第1の実施形態においては、探索領域において物体が検出されなかった場合に、テンプレートを用いて画像領域の照合処理を行い、テンプレートは更新しないようにした。これに対して本実施形態では、探索領域において物体が検出されなかった場合も、交差の判断結果によってはテンプレートを更新する。なお、本実施形態に係る物体追尾装置の構成は、第1の実施形態と同様であるため、説明は省略する。
図7は、本実施形態における物体を追尾する処理手順の一例を示すフローチャートである。なお、図3と同じ処理については同一の符号を付しており、これらの説明は省略する。
ステップS701においては、物体の検出処理に用いた認識モデルの番号の情報を前景マスク記憶部1052に記憶する。認識モデルが複数利用した場合には、認識モデルの番号と利用した回数との情報を記憶する。
ステップS702においては、物体の検出領域の代わりにステップS313の照合処理で検出した領域を用いる以外は、ステップS307と同様の処理を行う。そして、ステップS703においては、割合計算部1053は、ステップS701で記憶した認識モデルの番号に従い、その前景マスクを前景マスク記憶部1052から読み出す。ステップS704においては、割合計算部1053は、ステップS309と同様に、前景マスク外の前景領域の割合を算出する。ステップS705及びS706は、それぞれステップS310及びS311と同様である。
以上のように本実施形態によれば、物体識別部103により物体を検出できなかったが照合処理によって物体を追尾できたような場合であっても交差を検知することができる。また、交差を検知しなかった場合にはテンプレートを更新するため、より直近の物体の情報を反映させることができる。
(第3の実施形態)
第1の実施形態においては、各ピラミッドレイヤの検出結果を統合した後に物体を検出したか否かを判断した。これに対して本実施形態では、各検出結果を統合する前にこれらの尤度がすべて閾値未満である場合は、テンプレートとの類似度に基づいて統合する。なお、本実施形態に係る物体追尾装置の構成は、第1の実施形態と同様であるため、説明は省略する。
図8は、本実施形態における物体を追尾する処理手順の一例を示すフローチャートである。なお、図3と同じ処理については同一の符号を付しており、これらの説明は省略する。
ステップS801においては、処理制御部199は、探索領域における各ピラミッドレイヤの検出結果の尤度を算出し、これらの検出結果の尤度がすべて所定の閾値より小さいかどうかを判断する。この判断の結果、尤度が閾値以上の検出結果が存在する場合は、ステップS802に進み、すべて閾値よりも小さい場合はステップS312に進む。
ステップS802においては、物体識別部103は、尤度が閾値以上である検出結果を物体毎に分離し、同じ物体の複数の正規化局所領域の位置及びサイズについて原画像における平均値を求め、物体の位置及びサイズを物体の検出領域として検出する。
一方、ステップS312においては、テンプレート照合部107は、第1の実施形態と同様に追尾用テンプレートを読み出す。ステップS803において、処理制御部199は、全ての検出結果について、ステップS804の処理を繰り返し行うように制御する。
ステップS804において、テンプレート照合部107は、ステップS312において読み出したテンプレートと検出結果との類似度を計算する。例えば、テンプレートがRGBヒストグラムである場合には、類似度はヒストグラムインタセクションとすることができる。また、テンプレートがSIFT特徴量である場合には、類似度はマッチングしたSIFT特徴量数と全部のSIFT特徴量数との比率にすることができる。
ステップS805においては、処理制御部199は、全ての検出結果について、ステップS804の処理を行ったか否かを判断する。この判断の結果、処理を行っていない検出結果が存在する場合は次の検出結果についてステップS804の処理を行う。一方、全ての検出結果について処理を行った場合は、次のステップS806に進む。
ステップS806においては、テンプレート照合部107は、ステップS314で計算した各検出結果の類似度を閾値と比較し、類似度が閾値以上(所定値以上)の検出結果を追尾結果として統合する。
以上のように本実施形態によれば、第1の実施形態と同様に、照合制度を高め、追尾する物体の誤追尾を抑制することができる。また、物体同士の交差を精度良く検知することができる。
なお、本実施形態においては、ステップS802の統合処理は交差検知処理の前に行ったが、ステップS310またはS311の直後に行ってもよい。また、第2の実施形態と同様に、ステップS308の判断の結果、各検出結果の尤度がすべて閾値より小さい場合であっても交差検知を行い、追尾用テンプレートを更新してもよい。
(第4の実施形態)
第1〜第3の実施形態においては、背景差分により抽出した検出領域内の前景領域と、各認識モデルの前景マスクとを利用して、物体の交差を検知するようにした。これに対して本実施形態においては、物体識別部103が検出した検出領域、またはテンプレート照合部107で照合した物体の画像領域を用いて、各軌跡の物体の画像領域の重複する割合により交差を判断する。
図9は、本実施形態に係る物体追尾装置900の機能構成例を示すブロック図である。なお、本実施形態に係る物体追尾装置のハードウェア構成は、第1の実施形態と同様であるため、説明は省略する。
図9に示すように、図1に示した構成と比べて、交差検知部105の代わりに軌跡交差検知部905としている。なお、他の構成については図1と同じ符号を付しており、これらの構成については説明を省略する。
図10は、本実施形態における物体を追尾する処理手順の一例を示すフローチャートである。なお、図3と同じ処理については同一の符号を付しており、これらの説明は省略する。
まず、ステップS1001において、軌跡交差検知部905は、軌跡結合部104によって更新された前フレームまでの全ての軌跡の物体の画像領域情報を外部記憶装置206から読み出す。
次に、ステップS1002において、軌跡交差検知部905は、処理対象の軌跡の物体の画像領域と他の軌跡の物体の画像領域との重複領域を他の全ての軌跡に対して求める。そして、他の全ての軌跡について、前記求めた重複領域の、処理対象の軌跡の物体の画像領域における割合を計算する。
次に、ステップS1003において、軌跡交差検知部905は、他の全ての軌跡に対して計算した、前記重複領域の、処理対象の軌跡の物体の画像領域における割合がすべて閾値未満であるどうかを判断する。この判断の結果、すべて閾値未満である場合は、軌跡の交差がないとみなし、ステップS311に進む。一方、閾値以上である割合が少なくとも1つ存在する場合は、テンプレートを更新せずに、ステップS314に進む。
以上のように本実施形態によれば、第1の実施形態と同様に、照合制度を高め、追尾する物体の誤追尾を抑制することができる。また、物体同士の交差を精度良く検知することができる。
なお、本実施形態においては、テンプレートの更新処理は、第1の実施形態と同様に探索領域内で認識モデルにより識別した物体領域がある場合のみ行った。一方、第2の実施形態のように、テンプレートの照合処理で求めた物体領域を用いてステップS1001〜S1003と同様の処理を行い、軌跡が交差しない時にもテンプレートを更新してもよい。また、本実施形態において、ステップS304で識別した各正規化局所領域の統合処理をS305で行うが、第3の実施形態のように、テンプレート更新処理または、テンプレートの照合処理の後に行ってもよい。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
102 探索領域設定部
103 物体識別部
104 軌跡結合部
105 交差検知部
106 テンプレート更新部
107 テンプレート照合部
199 処理制御部

Claims (10)

  1. 動画の注目するフレームにおける物体の探索領域を過去のフレームにおける追尾結果に基づいて設定する設定手段と、
    前記設定手段によって設定された探索領域において前記物体の認識モデルを用いて前記物体を検出する検出手段と、
    前記検出手段によって検出された物体の検出領域から前景領域を抽出し、前記抽出した前景領域、及び前記認識モデルに対応するマスクを用いて前記物体の交差を検知する検知手段と、
    前記検知手段によって前記物体の交差が検知されなかった場合に、前記検出手段によって検出された物体の検出領域に基づいて、前記物体の特徴量を示すテンプレートを更新するテンプレート更新手段と、
    前記検出手段によって前記物体が検出されなかった場合に、前記テンプレート更新手段によって前記過去のフレームにおいて更新されたテンプレートと照合して前記設定手段によって設定された探索領域内から前記物体の画像領域を抽出する照合手段と、
    前記検出手段によって検出された物体の検出領域、または前記照合手段によって抽出された画像領域を追尾結果として更新する追尾結果更新手段と、
    を備えることを特徴とする物体追尾装置。
  2. 前記検知手段によって前記物体の交差を検知した場合に、前記テンプレート更新手段は、前記物体のテンプレートを更新しないようにすることを特徴とする請求項1に記載の物体追尾装置。
  3. 前記検知手段は、前記前景領域のうち、前記マスクと重ならない領域の割合に基づいて前記物体の交差を検知することを特徴とする請求項1又は2に記載の物体追尾装置。
  4. 前記照合手段により前記物体の画像領域が抽出された場合に、前記検知手段は、前記物体の画像領域から前景領域を抽出し、前記抽出した前景領域、及び前記認識モデルに対応するマスクを用いて前記物体の交差を検知し、
    前記検知手段によって前記物体の交差が検知されない場合に、前記テンプレート更新手段は、前記検出手段によって検出された物体の画像領域に基づいて、前記物体のテンプレートを更新することを特徴とする請求項1〜3の何れか1項に記載の物体追尾装置。
  5. 前記検出手段は、前記探索領域を含む画像をそれぞれ異なる比率で縮小した複数のピラミッド画像を用いて前記複数のピラミッド画像それぞれの検出結果を統合して前記物体を検出することを特徴とする請求項1〜4の何れか1項に記載の物体追尾装置。
  6. 前記検出手段は、前記探索領域を含む複数のピラミッド画像を用いて前記複数のピラミッド画像それぞれにおいて前記物体を検出し、
    前記照合手段は、前記テンプレート更新手段によって前記過去のフレームにおいて更新されたテンプレートと、前記複数のピラミッド画像のそれぞれにおける検出結果との類似度を算出し、前記類似度が所定値以上であるピラミッド画像の検出結果を統合して前記物体の画像領域とすることを特徴とする請求項1〜4の何れか1項に記載の物体追尾装置。
  7. 前記検知手段は、前記検出手段が複数の認識モデルを用いた場合に、前記物体の検出に最も多く利用された認識モデルのマスクを用いることを特徴とする請求項1〜6の何れか1項に記載の物体追尾装置。
  8. 前記検知手段は、前記検出手段が複数の認識モデルを用いた場合に、前記複数の認識モデルのマスクを用いることを特徴とする請求項1〜6の何れか1項に記載の物体追尾装置。
  9. 動画の注目するフレームにおける物体の探索領域を過去のフレームにおける追尾結果に基づいて設定する設定工程と、
    前記設定工程において設定された探索領域において前記物体の認識モデルを用いて前記物体を検出する検出工程と、
    前記検出工程において検出された物体の検出領域から前景領域を抽出し、前記抽出した前景領域、及び前記認識モデルに対応するマスクを用いて前記物体の交差を検知する検知工程と、
    前記検知工程において前記物体の交差が検知されなかった場合に、前記検出工程において検出された物体の検出領域に基づいて、前記物体の特徴量を示すテンプレートを更新するテンプレート更新工程と、
    前記検出工程において前記物体が検出されなかった場合に、前記テンプレート更新工程において前記過去のフレームにおいて更新されたテンプレートと照合して前記設定工程において設定された探索領域内から前記物体の画像領域を抽出する照合工程と、
    前記検出工程において検出された物体の検出領域、または前記照合工程において抽出された画像領域を追尾結果として更新する追尾結果更新工程と、
    を備えることを特徴とする物体追尾方法。
  10. 動画の注目するフレームにおける物体の探索領域を過去のフレームにおける追尾結果に基づいて設定する設定工程と、
    前記設定工程において設定された探索領域において前記物体の認識モデルを用いて前記物体を検出する検出工程と、
    前記検出工程において検出された物体の検出領域から前景領域を抽出し、前記抽出した前景領域、及び前記認識モデルに対応するマスクを用いて前記物体の交差を検知する検知工程と、
    前記検知工程において前記物体の交差が検知されなかった場合に、前記検出工程において検出された物体の検出領域に基づいて、前記物体の特徴量を示すテンプレートを更新するテンプレート更新工程と、
    前記検出工程において前記物体が検出されなかった場合に、前記テンプレート更新工程において前記過去のフレームにおいて更新されたテンプレートと照合して前記設定工程において設定された探索領域内から前記物体の画像領域を抽出する照合工程と、
    前記検出工程において検出された物体の検出領域、または前記照合工程において抽出された画像領域を追尾結果として更新する追尾結果更新工程と、
    をコンピュータに実行させることを特徴とするプログラム。
JP2015124205A 2015-06-19 2015-06-19 物体追尾装置、物体追尾方法及びプログラム Active JP6532317B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015124205A JP6532317B2 (ja) 2015-06-19 2015-06-19 物体追尾装置、物体追尾方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015124205A JP6532317B2 (ja) 2015-06-19 2015-06-19 物体追尾装置、物体追尾方法及びプログラム

Publications (3)

Publication Number Publication Date
JP2017010224A true JP2017010224A (ja) 2017-01-12
JP2017010224A5 JP2017010224A5 (ja) 2018-07-26
JP6532317B2 JP6532317B2 (ja) 2019-06-19

Family

ID=57762465

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015124205A Active JP6532317B2 (ja) 2015-06-19 2015-06-19 物体追尾装置、物体追尾方法及びプログラム

Country Status (1)

Country Link
JP (1) JP6532317B2 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109785358A (zh) * 2018-11-23 2019-05-21 山东航天电子技术研究所 一种基于循环确认机制的抗遮挡红外小目标跟踪方法
WO2019188054A1 (en) * 2018-03-29 2019-10-03 Nec Corporation Method, system and computer readable medium for crowd level estimation
JP2019194857A (ja) * 2018-05-04 2019-11-07 キヤノン株式会社 物体追跡方法および装置
CN111354012A (zh) * 2020-02-18 2020-06-30 杭州电子科技大学 基于子空间投影的复杂场景运动小目标检测前跟踪方法
WO2020175818A1 (ko) * 2019-02-28 2020-09-03 네이버 주식회사 온라인 학습을 이용한 객체 트래킹을 위한 방법 및 시스템
JP2021033426A (ja) * 2019-08-19 2021-03-01 東芝情報システム株式会社 画像検出装置、画像検出方法及び画像検出用プログラム
WO2022019076A1 (ja) * 2020-07-20 2022-01-27 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
WO2022259690A1 (ja) * 2021-06-11 2022-12-15 パナソニックIpマネジメント株式会社 作業分析装置及び方法
CN115564803A (zh) * 2022-12-06 2023-01-03 腾讯科技(深圳)有限公司 一种动画处理方法、装置、设备、存储介质及产品

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010039580A (ja) * 2008-07-31 2010-02-18 Secom Co Ltd 移動物体追跡装置
JP2010193406A (ja) * 2009-02-20 2010-09-02 Canon Inc 画像入力装置及び被写体検出方法、プログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010039580A (ja) * 2008-07-31 2010-02-18 Secom Co Ltd 移動物体追跡装置
JP2010193406A (ja) * 2009-02-20 2010-09-02 Canon Inc 画像入力装置及び被写体検出方法、プログラム

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019188054A1 (en) * 2018-03-29 2019-10-03 Nec Corporation Method, system and computer readable medium for crowd level estimation
US11893798B2 (en) 2018-03-29 2024-02-06 Nec Corporation Method, system and computer readable medium of deriving crowd information
US11615626B2 (en) 2018-03-29 2023-03-28 Nec Corporation Method, system and computer readable medium for estimating crowd level using image of crowd
US11270108B2 (en) 2018-05-04 2022-03-08 Canon Kabushiki Kaisha Object tracking method and apparatus
JP2019194857A (ja) * 2018-05-04 2019-11-07 キヤノン株式会社 物体追跡方法および装置
CN110443833A (zh) * 2018-05-04 2019-11-12 佳能株式会社 对象跟踪方法和设备
CN110443833B (zh) * 2018-05-04 2023-09-26 佳能株式会社 对象跟踪方法和设备
CN109785358A (zh) * 2018-11-23 2019-05-21 山东航天电子技术研究所 一种基于循环确认机制的抗遮挡红外小目标跟踪方法
CN109785358B (zh) * 2018-11-23 2023-06-16 山东航天电子技术研究所 一种基于循环确认机制的抗遮挡红外小目标跟踪方法
WO2020175818A1 (ko) * 2019-02-28 2020-09-03 네이버 주식회사 온라인 학습을 이용한 객체 트래킹을 위한 방법 및 시스템
JP2022521540A (ja) * 2019-02-28 2022-04-08 ネイバー コーポレーション オンライン学習を利用した物体追跡のための方法およびシステム
JP7192143B2 (ja) 2019-02-28 2022-12-19 ネイバー コーポレーション オンライン学習を利用した物体追跡のための方法およびシステム
KR102198920B1 (ko) * 2019-02-28 2021-01-06 네이버 주식회사 온라인 학습을 이용한 객체 트래킹을 위한 방법 및 시스템
KR20200105157A (ko) * 2019-02-28 2020-09-07 네이버 주식회사 온라인 학습을 이용한 객체 트래킹을 위한 방법 및 시스템
US11972578B2 (en) 2019-02-28 2024-04-30 Naver Corporation Method and system for object tracking using online training
JP2021033426A (ja) * 2019-08-19 2021-03-01 東芝情報システム株式会社 画像検出装置、画像検出方法及び画像検出用プログラム
CN111354012B (zh) * 2020-02-18 2023-03-28 杭州电子科技大学 基于子空间投影的复杂场景运动小目标检测前跟踪方法
CN111354012A (zh) * 2020-02-18 2020-06-30 杭州电子科技大学 基于子空间投影的复杂场景运动小目标检测前跟踪方法
WO2022019076A1 (ja) * 2020-07-20 2022-01-27 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
WO2022259690A1 (ja) * 2021-06-11 2022-12-15 パナソニックIpマネジメント株式会社 作業分析装置及び方法
CN115564803A (zh) * 2022-12-06 2023-01-03 腾讯科技(深圳)有限公司 一种动画处理方法、装置、设备、存储介质及产品
CN115564803B (zh) * 2022-12-06 2023-03-14 腾讯科技(深圳)有限公司 一种动画处理方法、装置、设备、存储介质及产品

Also Published As

Publication number Publication date
JP6532317B2 (ja) 2019-06-19

Similar Documents

Publication Publication Date Title
JP6532317B2 (ja) 物体追尾装置、物体追尾方法及びプログラム
EP3092619B1 (en) Information processing apparatus and information processing method
Lin et al. Abandoned object detection via temporal consistency modeling and back-tracing verification for visual surveillance
US7916944B2 (en) System and method for feature level foreground segmentation
EP3418944A2 (en) Information processing apparatus, information processing method, and program
Pless et al. Evaluation of local models of dynamic backgrounds
US8948450B2 (en) Method and system for automatic object detection and subsequent object tracking in accordance with the object shape
CN110298297B (zh) 火焰识别方法和装置
JP6482195B2 (ja) 画像認識装置、画像認識方法及びプログラム
KR101449744B1 (ko) 영역 기반 특징을 이용한 얼굴 검출 장치 및 방법
Noriega et al. Real Time Illumination Invariant Background Subtraction Using Local Kernel Histograms.
Saito et al. People detection and tracking from fish-eye image based on probabilistic appearance model
Gautam et al. Computer vision based asset surveillance for smart buildings
Khanam et al. Baggage recognition in occluded environment using boosting technique
Soundrapandiyan et al. Robust pedestrian detection in infrared images using rotation and scale invariant-based structure element descriptor
Avola et al. A new descriptor for keypoint-based background modeling
Meenatchi et al. Multiple object tracking and segmentation in video sequences
Yildirim et al. Gender classification based on binary haar cascade
Kim et al. Background modeling using adaptive properties of hybrid features
Li et al. Scene-independent feature-and classifier-based vehicle headlight and shadow removal in video sequences
Duan et al. Detection of hand-raising gestures based on body silhouette analysis
Kerdvibulvech Hybrid model of human hand motion for cybernetics application
Pava et al. Object Detection and Motion Analysis in a Low Resolution 3-D Model
JP2016207106A (ja) 物体検出における誤検出低減方法および装置
Voleti et al. Simple real-time pattern recognition for industrial automation

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180614

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180614

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190411

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190423

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190521

R151 Written notification of patent or utility model registration

Ref document number: 6532317

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151