JP2016085487A - 情報処理装置、情報処理方法及びコンピュータプログラム - Google Patents

情報処理装置、情報処理方法及びコンピュータプログラム Download PDF

Info

Publication number
JP2016085487A
JP2016085487A JP2014215788A JP2014215788A JP2016085487A JP 2016085487 A JP2016085487 A JP 2016085487A JP 2014215788 A JP2014215788 A JP 2014215788A JP 2014215788 A JP2014215788 A JP 2014215788A JP 2016085487 A JP2016085487 A JP 2016085487A
Authority
JP
Japan
Prior art keywords
tracking
target object
area
information processing
tracking target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014215788A
Other languages
English (en)
Other versions
JP2016085487A5 (ja
JP6525545B2 (ja
Inventor
山本 真司
Shinji Yamamoto
真司 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014215788A priority Critical patent/JP6525545B2/ja
Priority to US14/887,052 priority patent/US9747523B2/en
Publication of JP2016085487A publication Critical patent/JP2016085487A/ja
Publication of JP2016085487A5 publication Critical patent/JP2016085487A5/ja
Application granted granted Critical
Publication of JP6525545B2 publication Critical patent/JP6525545B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

【課題】追跡の継続判定の精度の向上を図り、追跡対象物が消失した場合もドリフトを生じにくくする。
【解決手段】画像中に存在する追跡対象物体を含む追跡領域を特定する追跡手段101と、画像中の追跡領域内の動き領域を特定する特定手段103と、特定された動き領域が追跡領域に占める割合である動き領域の割合を導出する導出手段104aと、導出された割合に基づき、追跡対象物体の追跡を継続するか否かを判定する判定手段104bと、を具備する情報処理装置100である。この構成により、追跡対象物が遮蔽物の陰に隠れた場合等のドリフトを低減する。
【選択図】図1

Description

本発明は、画像中の物体の追跡を行うための情報処理装置及び情報処理方法に関する。
連続した画像又は動画(以下、これらを単に「画像」と称する。)を用いて、その画像中の物体を追跡する方法や装置が知られている。
従来の方法の一つに、画像特徴を用いる追跡の方法がある。この方法によれば、物体の移動予測と、オブジェクトの特徴と入力画像のビジュアル的な特徴とを比較することによるマッチング処理とを行って、追跡の対象となる物体の位置の特定が行われる。
このような追跡方法では、追跡対象の物体が画像フレーム外に出た際には、それ以降の追跡処理を続行できず、追跡は終了する。一方、追跡対象の物体が壁に隠れる、扉から出ること等によって、画像フレーム内ではあっても物体を撮像できなくなり、物体が撮像画像中から消失する場合がある。このような画像フレーム内における消失の場合は、一般的には、画像特徴のマッチングの信頼度が低下するので、その信頼度が一定値以下になった際には追跡を終了することによって処理している。
この追跡終了判定に関し、下記特許文献1では、物体の追跡情報と物体の検出結果を画像フレーム間で対応づける追跡方式において、追跡の継続、中断、終了判定する方法が提案されている。この方法によれば、物体検出結果と、追跡情報とを対応付けし、その際の対応度が算出される。そして、その対応度の値によって、追跡の継続判定を可能にしている。詳細には、対応度の値によって、次に述べるような種々の判断と処理を行う。すなわち、(1)追跡対象物体の追跡を継続する場合、(2)追跡対象物体が一時的に隠れており、追跡を一旦中断する場合、(3)追跡情報と検出した物体とが十分に対応せず追跡処理を終了する場合、等の判断処理を行っている。
特開2013−25490号公報
しかしながら、マッチングの信頼度を用いた一般的な追跡の終了判定手法では、対象物体が消失した際に、その信頼度が急には下がらない場合がある。すなわち、信頼度が下がらないので、追跡が継続してしまい、物体が存在しない位置で追跡対象を探索し続けてしまう、「ドリフト」と呼ばれる現象が発生する場合がある。
この様子が図10に示されている。図10には、図10の(a)(b)(c)(d)の順に時間が経過していく場合の遷移が示されている。図10(a)において、追跡対象物体1001は例えば人物であり、その周囲に追跡領域1003が示されている。追跡領域1003は、追跡対象物体である人物を含む矩形の領域である。図10(a)(b)と時間が経過していき、図10(c)では、遮蔽物1002の陰に追跡対象物体1001が一部隠れている。そして、図10(d)では、追跡対象物体1001がほぼ遮蔽物1002に隠れてしまっている。ここで、遮蔽物1002と追跡対象物体1001との間に画像の特徴に大きな差が無い場合は、上述したようにマッチングの信頼度が急には下がらないため、追跡が継続し、図10(d)においては、追跡領域1003がまだ残存している。これが「ドリフト」と呼ばれる現象である。この画像の特徴に大きな差が無い場合とは、例えば、追跡対象物体が白い着衣の人物であり、それに対して遮蔽物1002も白い壁である場合等が挙げられる。上記のドリフトの発生により、本来、追跡対象物1001が画像フレームから消失したため追跡を中断ないし終了しなければならないのに、追跡処理の中断ないし終了の判断が遅れてしまう。
一方、上記特許文献1記載の方法では、物体の追跡領域と、物体の検出結果とを、フレーム間で対応づけているため、追跡の精度が物体検出結果に依存してしまう。ここで、物体検出とは、背景を撮影した画像と着目フレームの画像との差分によって、移動物体を検出する方法と、検出対象の物体の画像を学習して識別器を作成し、この識別器によって、検出を行う方法がある。
背景画像との差分を利用する方法では、検出された物体が、フレームによっては画素が途切れて分割されてしまう場合や、他の移動物体と結合されてサイズが大きくなる場合がある。このとき、これまでの追跡情報と物体検出情報の対応度は、大きく低下してしまう場合がある。
この様子が図11に示されている。図11には、図11の(a)(b)(c)(d)の順に時間が経過していく場合の遷移が示されている。図11(a)において、追跡対象物体1101は例えば人物であり、その周囲に追跡領域1103(図11においては矩形領域)が示されている。図11(b)では、背景との差分情報1104がハッチングを付した矩形で示されている。このように、背景との差分による手法では、検出部分である差分情報1104は、追跡対象物体と完全に重なるとは限らず、部分的にしか重ならない状態になる場合がある。また、図11(b)に示すように、各差分情報1104は分離された複数の物体として検出される場合もある。例えば、追跡対象の人物が背景に同化することで、こうした現象が出現し得る。この結果、検出された複数の物体と、追跡対象物体1101との対応関係がそれぞれ十分にとることができない。そのため、図11(b)の画像フレーム中には未だ追跡対象物体1101が存在するにもかかわらず、誤って追跡処理を中断ないし終了してしまいかねない。さらに例えば図11(c)では、追跡対象物体1101が遮蔽物1102の陰にほぼ隠れた状態であるが、一部が画像フレーム中存在しているため差分情報1104はまだ検出されている。これに対して、図11(d)では、追跡対象物体1101が遮蔽物1102に完全に隠れており、差分情報1104は検出されない。この例では、本来この差分情報1104が検出されない図11(d)の場合をもって、追跡処理を中断ないし中止することが望ましいが、図11(b)のタイミングで追跡処理を中止するおそれがある。すなわち、誤って、追跡処理の中断ないし終了が早すぎてしまうことも起こり得る。
上記の理由により、上記従来技術においては、画像中に追跡対象物体があるにもかかわらず追跡対象物体が消失した場合のドリフト発生による追跡処理の中断ないし終了の判定の遅れが発生していた。また、追跡対象物体と過去の追跡情報との対応付け低下による追跡処理の中断ないし終了の誤った判定が発生し、その結果、追跡処理の継続判定の精度が低下していた。
本発明は上述した問題を解決するため、追跡処理の中断ないし終了判定の遅れや誤りを低減し、追跡処理のより高精度な継続判定を可能とする情報処理装置、情報処理方法及びコンピュータプログラムを提供することを目的とする。
上記目的を達成するための本発明のある態様によれば、
画像中に存在する追跡対象物体を含む追跡領域を特定する追跡手段と、前記画像中の前記追跡領域内の動き領域を特定する特定手段と、特定された前記動き領域が前記追跡領域に占める割合である動き領域の割合を導出する導出手段と、導出された前記割合に基づき、前記追跡対象物体の追跡を継続するか否かを判定する判定手段と、を具備することを特徴とする情報処理装置である。
以上の構成を備える本発明によれば、追跡対象物体が存在する追跡領域に対して、特定された動き領域が占める割合である動領域割合を求め、この求めた動領域割合に基づき、追跡の継続判定を行う。したがって、追跡処理の中断ないし終了判定の遅れや誤りを低減することができる。よって、追跡処理における継続判定の精度を向上することができる。
実施形態1に係る映像処理装置の機能構成例を示すブロック図である。 実施形態1における追跡の継続判定例の説明図である。 実施形態1に係る情報処理装置が実行する処理の手順を説明するフローチャートである。 実施形態1に係る情報処理装置が実行する処理の手順の詳細を説明するフローチャートである。 存在度の概念と具体的な数値例を説明する図である。 静止物体の追跡継続の判定処理の説明図である。 静止物体に対する追跡処理の継続の動作を説明する他の説明図である。 表示が変更される場合の一例を示す説明図である。 本実施形態の情報処理装置をコンピュータで構成した例の説明図である。 画像特徴を用いて物体の追跡を行う追跡処理の動作を説明する説明図である。 背景画像との差分を利用して物体の検出を行う方法の動作を説明する説明図である。
以下、添付の図面を参照して、本発明をその実施形態に基づいて詳細に説明する。なお、以下に説明する実施形態は、本発明の実現手段としての一例であり、本発明が適用される装置の構成や各種条件によって適宜修正又は変更されるべきものであり、本発明は以下の実施の形態に限定されるものではない。
<実施形態1>
本実施形態1に係る映像処理装置は、監視カメラなどの撮像装置内に組み込まれる画像処理回路や、パーソナルコンピュータなどのコンピュータ装置に適用することができるものである。
先ず、本実施形態1に係る映像処理装置の機能構成例について、図1のブロック図を用いて説明する。図1において、映像処理装置120は、情報処理装置100と、表示部110と、から構成される。
情報処理装置100は、典型的には、連続した画像または動画(以下、単に「画像」と称する。)を撮影可能なカメラユニットであり、そのカメラユニット内に、後述するような機能を備えた各種の情報処理回路を搭載したものがよい。すなわち、情報処理装置100は、物体追跡機能の全部または一部を有するカメラユニットである。なお、本実施形態1の画像処理装置の機能を実現することができるのであれば、情報処理装置100は、一般のPC(パーソナルコンピュータ)とそれに接続されるカメラ(例えばWebカメラ等)で構成されてもよい。また、情報処理装置100は、本実施形態1の機能を有する一体型のカメラであってもよい。
表示部110は、カメラユニットが撮影した画像を表示する表示装置を備える表示部110であり、画像と同時に追跡情報も表示することができる。典型的には、小型のPC(パーソナルコンピュータ)を、表示端末として用いてよい。なお、情報処理装置100と表示部110とは、同一装置の同一筐体内に搭載されてもよく、これに替えて、ローカルまたはリモートで相互接続される別装置として構成されてもよい。
(1)情報処理装置100の構成
情報処理装置100の画像取得部102(図1参照)は、画像を撮像するカメラそのものであり、所定の光学系と、CCDあるいはCMOS等の撮像素子と、それらを制御する各種回路から構成される。情報処理装置100を上述したようにPCで構成した場合には、この画像取得部102は、そのPCに接続する、いわゆるWebカメラやUSBカメラ等であってよい。また、上述したように情報処理装置100が一体型のカメラとして構成されてもよい。
(画像取得部102)
画像取得部102は、撮像素子によって撮像された画像を順次取得する。言い換えれば、動画像を構成する各フレームの画像を順次取得することができる。1以上の追跡対象物体は、この動画像内にフレームインし、また、フレームアウトする場合がある。また、追跡対象物体は、複数フレームに渡って画像内を移動するような場合もある。
そして画像取得部102は、取得した各フレームの画像を順次、追跡部101と動き領域抽出部103に対して送出する。
なお、本実施形態1では、画像取得部102自身が画像を撮影する例として説明するが、これに限定されず、例えば、外部に設けられた画像を撮像可能な撮像装置から画像を取得してもよい。この場合、画像取得部102は、その撮像装置との間のインターフェースとなる。また、画像は、予め画像を保持している(記録・録画している)ような外部の記憶装置から取得してもよい。このような場合も画像取得部102は、その記憶装置との間のインターフェースとなる。このように、画像の取得先(ソース)については特定の取得先に限るものではない。
(追跡部101)
追跡部101は、画像取得部102が出力した画像を受け取る。追跡部101は、受け取った各画像フレームの画像の追跡対象物体を含む追跡領域を、画像特徴を用いたマッチング処理などの技術を用いて追跡する。
この追跡処理では、追跡対象として定めた物体(すなわち、追跡対象物体)の位置を特定し、画像フレーム間で同じ物体として対応づけが行われる。例えば、初めに、ユーザが指定した領域を追跡対象物体を含む追跡領域として設定する。そして、設定された追跡領域内の画像データから、例えば色ヒストグラム、テクスチャ等を画像の特徴量として抽出し、追跡対象物体のテンプレートに設定する。すなわち、追跡対象物体のテンプレートとしては、設定された領域のサイズ(高さ及び幅)と画像の特徴量とが設定される。そして、このテンプレートとして設定された特徴量と、後に入力された画像フレームとでマッチング処理を行い、画像内の類似度が最も高い位置を新たな追跡対象物***置として特定する。そして、追跡部101は、ある画像フレームの追跡対象物体を含む追跡領域の位置を特定する。そして追跡部101は、この追跡に係る物体識別子、追跡対象物体を含む追跡領域の位置とサイズ等を含む情報を追跡情報として生成し、後段の存在度算出部104aおよび表示制御部112へ出力する。
なお、追跡部101は、追跡情報の一部として追跡領域を生成しており、追跡情報については、次段落で詳細に説明する。
ここで、追跡情報とは、種々の追跡に関する情報であり、追跡領域(例えば、後述するバウンディングボックス等)および追跡位置(座標値等)を含む情報である。また、追跡情報は、上述したテンプレートとして、追跡領域の幅・高さ等のサイズ、追跡対象物(オブジェクトと呼ぶ場合もある)の色彩のヒストグラム等の特徴量やそのID等を含む。また、用途に応じてこれらの情報の内、一部のみを用いる場合もあれば、その他関連する情報を含む場合もある。特に、本実施形態1では、追跡情報のうち、追跡領域を用いる手法を中心として説明するが、他の追跡情報を用いてもよい。
テンプレートによるマッチング処理を採用する場合は、ヒストグラムによるマッチングに比べてドリフトは生じにくいと一般的には考えられる。しかし、背景のパターンや周囲画像の形状等によっては、ドリフトが生じる可能性はあるので、本実施形態で提案する各種の追跡判定手法を適用する余地は大いにあるものと考えられる。
ここで、追跡対象物の位置の初期値は、上記ユーザが指定した領域の位置であり、この領域で検出された動物体が追跡される。また、指定された領域の特徴は動物体の特徴とみなし、テンプレートとして格納される。この動物体を構成する領域(結果的に追跡領域となる)は各画像フレーム(以下、単に「フレーム」としても参照され得る)中でマッチング処理等により、新たな位置が順次見つけられていき、その位置が追跡対象物体の新たな位置となる。
また、あるフレーム中で、マッチングによって特定した位置が複数存在する場合は、前フレームにおける上記追跡領域の位置と近い方を、新たな位置(新しい追跡領域)として特定する。簡単に言えば、このような処理を順次各フレームに対して行うことによって、追跡対象物体の位置を追跡していく。
このような追跡方法は一例であり、追跡方法は特定の方法に限るものではなく、様々な追跡手法を適用することができる。
また、追跡処理の開始は、追跡対象物体を認識する処理を用いて自動設定しても良い。マッチングに用いる上記特徴量(画像特徴量とも呼ぶ)は、物体検出で一般的に用いられるHOG(Histogram of Oriented Gradient)特徴やHaar特徴(ないし、Haar−like特徴)、その他の特徴量でもよい。
この特徴量は追跡開始時のものを最後まで利用しても良いし、毎フレームまたは指定の条件を満たしたフレームのみで更新しても良い。また、追跡対象物体に関する特徴量は、オンライン学習を行っても良い。さらに、追跡対象物体の検出処理を行い、検出結果の位置やサイズ情報、さらには特徴量を利用して、検出結果を複数フレームで対応づけることで、追跡対象物体の位置を特定し、追跡情報として利用すればよい。同じく、検出結果を複数フレームで対応づける際に、追跡対象物体が未検出となった場合のみ、特徴量による探索を行い、未検出となった追跡物体の位置を補間する追跡処理でもよい。
他に、カルマンフィルタを用いて移動を予測しても良いし、パーティクルフィルタを用いて総合的に物***置を判定しても良い。
以上述べたように、追跡対象物体は、ユーザが初期指定した追跡領域で表現され、各フレームにおいて、順次その位置を移動していく。そのため、この追跡領域が、実質的に抽出した追跡対象物体を表し、上述した追跡対象物体の位置とは、この領域の位置でもある。特に追跡領域が矩形の場合はこれをバウンディングボックス(Bounding Box)と呼ぶ場合がある。追跡領域は、追跡情報に含まれる情報の一種である。
(動き領域抽出部103)
動き領域抽出部103は、画像取得部102から受けとった動画像の各フレームについて動きを含む領域を抽出する。この抽出処理では、例えば、予め作成した参照画像と現在フレームの画像の差分をとることによって動き領域が抽出される。そして、動き領域抽出部103は、画像中の動き領域を抽出すると、この抽出に係る、各フレームの各画素に対応した動き判定結果(ラベルマップ)を動き領域の情報として生成し、後段の存在度算出部104aへ出力する。
また、動き領域抽出部103は、画像フレーム中の動き領域を抽出しているが、例えば予め抽出され、記憶装置に記憶された動き領域を読み出して、処理すべき動き領域、例えば追跡領域内に存在する動き領域を特定するものであってもよい。
なお、本実施形態1では、動き領域抽出部103は、フレーム画像中の動き領域を全て抽出し、後段の存在度算出部104aが追跡部101から出力される追跡領域の情報を用いて追跡領域内の動き領域を特定する。これに替えて、上述した追跡領域内の動き領域のみを抽出してもよい。この場合は、その追跡領域に関する情報を、上記追跡部101から受け取ればよい。
この抽出方法は、動き領域の抽出方法の一例であり、動き領域の抽出方法は、特定の方法に限るものではなく、様々な抽出方法を採用することができる。
上述した参照画像としては、予め動きが発生していないシーンを撮影した画像を用意し、参照画像として用いることもよい。また、複数フレームの情報を用いて、動的に参照画像を生成しても良い。
また、単純に参照画像との差分をとるのではなく、画像を小領域に分割して、統計的に判定しても良い。さらに、オプティカルフローや特徴点のマッチングを利用して、動きベクトルに基づいた判定を行っても良い。さらに、生成する情報(動き領域の情報)は、各領域を内包する矩形と各矩形を示す識別子を含めてもよい。同様に、画像を分割した小領域ごとに動き判定結果を生成し、動き領域の情報として利用してもよい。
(存在度算出部104aおよび判定部104b)
存在度算出部104aは、動き領域の存在度(割合)を算出し、判定部104bは、この算出された存在度に基づき、追跡の継続判定処理(以下、単に判定処理とも呼ぶ)を行う。
本実施形態1においては、存在度算出部104aが、追跡領域に包含される動き領域の存在度を算出し、判定部104bがこの存在度に基づき判定を行う。
本実施形態1におけるこの判定の処理では、まず、存在度算出部104aが、追跡部101から受けとった追跡領域と、動き領域抽出部103から受けとった動き領域の情報とから、追跡領域に含まれている動き領域の存在度を算出している。次に、判定部104bは、この存在度が所定の基準値以上であれば、追跡を継続すると判定する。逆に、存在度が所定の基準値未満であれば、追跡を中断または終了すると判定する。
ここで、「存在度」の算出に用いられる「動き領域の情報」には、追跡領域に含まれている動き領域の面積の比率を用いることができる。さらに、動き領域の動き量(例えば、画像フレーム内での移動量)を係数ないし重み付けに用いてもよい。
また、「存在度」の算出に用いられるのは、動き領域の情報のみに限定されない。例えば、追跡対象物の画像特徴量(例えば色彩のヒストグラム等)の情報や、これらの時系列上の変化量が適宜、係数ないし重み付けに用いられてよい。
存在度には、その他種々のパラメータを利用することができる。
なお、本実施形態において追跡処理の「中止」とは、追跡処理が停止するあらゆる処理を包含する概念であり、本実施の形態1の追跡処理の「中断」または「終了」は、「中止」の一例である。
例えば、追跡対象物体が、動画像のフレームの中で一時的に障害物に隠れてしまい、一時的な追跡処理の「中断」をするような場合(一時的に中断した後、追跡処理が再開される場合を含む。)や、追跡対象物体が、動画像のフレームの外に出てしまい、追跡処理が「終了」になってしまったような場合(追跡処理の再開を予定することなく、取得した関連データを破棄するような場合を含む。)等が、「中止」に含まれるものとする。フレーム中で、追跡対象物体が破壊されてしまい、追跡処理が完全に停止するような場合等も含まれてよい。例えば、「中止」の判断において、存在度に、複数の閾値(基準値)を設け、存在度が第1の閾値未満の場合には「中断」と判断し、存在度が第1の閾値より低い第2の閾値未満の場合には「終了」と判断してもよい。
なお、これら種々の「中止」の種類(「中断」や「終了」)に応じて、何らかの異なる処理を行うことも可能である(後述する実施形態3参照)。
判定部104bにおける判定処理の概念図が、図2に示されている。画像200内において、追跡対象物体201と遮蔽物202が存在するシーンを考える。追跡対象物体201は、例えば人間、又は人型のロボット等であり、図2においては、人型の薄いハッチングで示されている。
追跡部101は、追跡対象物体201に関する追跡領域203を生成する。ここで、追跡領域203は、追跡情報中の情報の一部である。図2では、この追跡領域203を示す矩形の枠が表示されている。
また、動き領域抽出部103においては、動き領域204が生成される。この動き領域204は、動きが検出された1又は複数個の小領域(群)であり、図2においては、動き領域204は、濃いハッチングで示された1又は複数個の矩形ボックス(群)である。動き領域204は動き領域の情報の一部であり、動き領域の情報とは、動き領域の位置や面積、形状等と、その動きの量、動きの方向等を含む情報である。
存在度算出部104aは、画像200内に存在する、各々の追跡領域203について、その内部に存在する(内包する)動き領域204の量に基づき、それらの存在度を計算(導出)する。本実施形態では、存在度として、例えば、追跡領域203の面積に対する、動き領域204の面積の比率を用いている。上述のように、動き領域の動き量(例えば、画像フレーム内での移動量)を係数ないし重み付けに用いてもよい。本実施形態1では、このような存在度を採用しているが、動き領域204の動領域割合に該当するような、その他種々のパラメータを利用可能である。
図2(a)では、追跡領域203内に、1つの領域として結合した動き領域204が存在している。この図2(a)の例では単純に追跡領域203と動き領域204の1個対1個の面積の比較によってその比率を計算し、存在度として利用することができる。
図2(b)では、追跡領域203内に複数の小領域に分かれた動き領域204が存在する。この場合、1個の追跡領域203に対して、複数個の動き領域204の面積の総和を比較することで比率を求めている。つまり、追跡領域203内に含む動き領域204はすべて計算対象であり、個別ではなく総和によって計算するものである。すなわち、「動き領域の面積の総和/追跡領域の面積」のように比率を求める。
また、図2(a)、(b)については、追跡領域203内に含む動き領域204の面積が十分に大きいため、比率(存在度)が例えば所定の基準値以上であるとされ、追跡処理は継続と判定される。一方、図2(c)では、追跡領域203内に含まれる動き領域204(の面積)が少ないため、比率(存在度)が所定の基準値未満であるとされ、追跡処理は中断または終了と判定される。
本実施形態1では、このような面積の比率を、追跡領域(追跡領域203)に対する、追跡領域内の動き領域204(動き領域情報に含まれる)の存在度として算出する例を示す。
なお、この存在度の計算方法は、特定の方法に限るものではない。様々な計算方法を利用することができる。動き領域の割合を示すものに相当するものであれば、種々のパラメータを利用することができる。
また、例えば、動き領域204として抽出された画素または小領域ごとに、動き領域としての信頼度(あるいは尤度)が計算されている場合は、信頼度に基づいて重みづけをして算出した値を上記存在度に相当する値として利用してもよい。また、追跡領域203の重心位置に近いほど重みを大きく設定して、値を求めても良い。
(信頼度)
なお、動き領域を求めるアルゴリズムは、従来から種々のアルゴリズムや手法が知られている。これらのアルゴリズムでは、求められた動き領域に対して所定の信頼度が同時に算出できる場合が多い。各アルゴリズムによって、信頼度は異なるものではあるが、いずれの信頼度でも、上記計算に用いることが可能である。また、信頼度は、求められた動き領域内の特徴点に対して算出される場合もある。そのような場合は、動き領域内のその特徴点に対する信頼度の総和や、各信頼度の平均値を、上記動き領域に対する信頼度として用いてもよい。
なお、これまでの説明では、追跡領域203は同一形状・同一面積であり、変化しない例を示したが、時間の経過と共に、動的に追跡領域の形状や面積が変化するような追跡方法を採用してもよい。
また、他の形態として、追跡対象物体(又は追跡領域203の)の重心から一定距離(追跡領域の内外を含み得る)を定め、この一定距離内に存在する動き領域(の総面積)を用いて、追跡領域203の面積との存在度(例えば面積の比率)を算出してもよい。
なお、上述のとおり、存在度は、典型的には、上述したように、追跡領域203の面積における動き領域204の面積の比率であり、単純に述べれば、「動き領域の面積/追跡領域」である。しかしながら、この比率に対してその他の演算処理・関数処理(例えば、上述した信頼度)を施して他の値を求め、この値に基づき判定を行ってもよい。
また、その他の動きのパラメータの量を加味しても良い。例えば、動きの大きさという量を加味して上記所定の値を算出してもよい。また、用途に応じて他のパラメータとの演算を施してもよい。
このように、判定部104bは、求められた各種の値に基づき、追跡処理を継続するか否かを判定している。
次に図3のフローチャートを参照して、本実施形態1に係る情報処理装置100が実行する処理の手順の概要を説明する。
ステップS301において、画像取得部102は、情報処理装置100へ入力された画像を取得する。この画像は例えば1時間の動画等であってよい。
ステップS302において、追跡部101は、ステップS301で取得した画像を基に追跡処理を行う。
ステップS303において、動き領域抽出部103は、ステップS301で取得した画像を基に動き領域抽出処理を行う。
ステップS304において、存在度算出部104aは存在度を算出し、判定部104bは、この存在度に基づき追跡継続判定処理を行う。ステップS304における追跡継続判定処理は、追跡対象物体ごとに行われる。追跡を継続すると判定された追跡対象物体については、再びステップS301に処理が移行した場合に、引き続き追跡処理が実行される。追跡処理が終了すると判定された追跡対象物体については、ステップS301に処理が再び移行しても、その追跡処理を引き継がない。
S301において新たに入力した画像についてマッチング処理等を行った場合に新たに追跡すべき対象物が見つかった場合は、その見つかった追跡対象物への追跡処理が開始される。なお、追跡処理の開始は、従来から種々の手法が知られており、それらさまざまな手法で追跡処理の開始を判断することが可能である。
ステップS305において、情報処理装置100が有する制御部(図9のCPU11等に実装され得る)は、当該処理を継続するか否かを判定する。これは要するに画像中に含まれる全てのフレーム処理が終了したか否か(例えば1時間分の全てのフレーム処理が終了したか否か)の判断であり、その画像に関する追跡処理全体(例えば、1時間分の動画像処理)の終了判断である。
ステップS305において、例えば、もう処理すべきフレームが残っていない場合は、ステップS306に移行し、処理すべきフレームが残っている場合は、ステップS301に移行する。
ステップS306においては、この追跡処理の結果を用いて行うべき、後続処理が実行されてよい。この後続処理は、追跡処理継続か否かの判定処理を用いるものであれば、あらゆる処理であってよく、例えば追跡結果を用いた各種の映像処理であってよい。
また、本実施形態1に係る動き領域の存在度を用いた追跡処理継続判定は、例えば従来の色彩ヒストグラムを用いたマッチング処理による追跡処理継続判定と比較して、処理負荷が高くない。このため、プリプロセスとして本実施形態に係る追跡処理継続判定を行い、後続のメインプロセスとして追跡処理を行ってもよく、この追跡処理に従来のマッチング処理による追跡処理継続判定を併用してもよい。
このように、実施形態1においては、追跡対象物の特定ではマッチング処理を行う一方、追跡情報に対する動き領域の存在度を用いて追跡の継続判定を行うことにより、追跡の継続判定の精度の向上を図ることができる。
次に、本実施形態1におけるステップS304の具体的な動作の詳細を、図4のフローチャートを用いて説明する。
図4のステップS301〜S303は、図3の同ステップと同様である。
図4のステップS401、S402、S403、S404が、図3におけるステップS304に相当する。
ステップS401においては、存在度算出部104aが、抽出した動き領域(動領域とも呼ぶ)の追跡領域に対する存在度を算出する。この算出は、上述の通り、追跡領域203に含まれている動き領域の量(面積)の比率として計算される。具体的には、「動き領域の面積(の総和)/追跡領域の面積」として面積の比率を算出する。
図5の説明図は、この存在度の概念を示す模式図が示されている。この図5に示すように、人型の周囲を取り囲む矩形で囲まれた領域が追跡領域203であり、この追跡領域203内に、動き領域204が3個存在する様子が示されている。追跡領域203の内部でハッチングが施された部分が動き領域204である。この状態に基づき、存在度を計算した結果、存在度=0.5と求められた(図5参照)。
図4のステップS402においては、判定部104bが、上記存在度を所定の閾値(基準値)と比較し、所定の閾値以上である場合は、追跡処理を継続するとの判定を行い、S403に処理が移行する。一方、存在度が所定の閾値(基準値)未満である場合には、ステップS404に処理が移行する。
なお、判定結果である、追跡処理を継続するか否かに関する判定は、追跡部101にも供給されており、この判定に基づき、追跡部101は追跡処理を継続又は中止をする。
なお、この追跡処理は、追跡対象物体201毎に行われるものであり、ある追跡対象物体については追跡処理を継続すると共に、他の追跡対象物体については追跡処理を中止する等の処理を、追跡対象物体毎に行っている。
さて、ステップS403においては、追跡部101が追跡結果である追跡情報を出力する。この追跡情報は、追跡領域203を含む情報である。出力した追跡領域203を含む追跡情報は、判定部104に供給されると共に、表示制御部112にも供給される。表示制御部112は、追跡結果である追跡情報(追跡領域204等)をまとめて、表示部110に出力する。表示部110は、表示装置(例えば表示スクリーン)を備えており、これらの情報を表示する。なお、表示制御部112は、これらの情報を、画像取得部102が取得した動画像と重畳して表示部110に出力する。
表示制御部112は、図1に示すように、情報処理装置100内に位置するが、情報処理装置100の外部に設けても構わない。例えば、表示部110内に配置してもよい。
さらに、図1においては、画像取得部102、追跡部101、動き領域抽出部103、存在度算出部104a、判定部104b、表示制御部112は、情報処理装置100内に設けられている。しかしながら、これに替えて、例えば情報処理装置100は、撮像部(例えば、図9の撮像部15)と画像取得部102のみを備えてもよい。この場合、表示装置側に、追跡部101、動き領域抽出部103、存在度算出部104a、判定部104b、表示制御部112の全部または一部を設けてもよい。
一方、ステップS404においては、判定部104bから追跡処理が継続しないとの判定結果が追跡部101に供給される。その判定結果を受けて追跡部101はその追跡対象物体に対する追跡処理を中止する。
ステップS403又はS404の処理が終了した後、ステップS305において追跡処理の全体が終了するか否かの判断がなされる。これは上述したステップS305と同処理であり、処理すべきフレームが残っているか否かの判断である。フレームの処理がまだ終了していない場合は、その動画像に対する追跡処理は継続され、全フレームが全て終了している場合は、ステップS306に処理が移行する。ステップS306は、図3のステップS306と同様の処理である。
なお、ステップS305における終了の判断は、制御部が行ってもよいし、追跡部101や動き領域抽出部103が行ってもよい。画像取得部102が供給する動画像等に含まれる全てのフレームについて処理が終了したか否かは、追跡部101や動き領域抽出部103が知ることができるからである。
<実施形態2>
本発明の実施形態2では、判定部104bにおいて、追跡対象物体が静止し、動き領域が抽出できない場合に、追跡を継続する判定を行う、換言すれば、追跡を中止する判定を行わない例を説明する。
存在度算出部104aは、実施形態1と同様に、追跡部101から受けとった追跡領域と、動き領域抽出部103から受けとった動き領域情報とから、追跡領域に対する動き領域の存在度を算出し、判定部104bは、その存在度に基づき追跡の継続判定を行う。
特に、本実施形態2においては、判定部104bは、追跡部101から得られた現在の追跡領域203の位置を、過去フレームにおいて得られた過去の追跡領域203の位置と比較する。そして、判定部104bは、現在の追跡領域203の移動量の大きさから、追跡対象物体に移動がほとんどないと判断される場合に、追跡対象物体201が、静止していると判定する。移動量は、過去フレームにおいて得られた過去の追跡領域203の位置と現在の追跡領域203の位置との差分によって求めることができる。具体的には、一定の基準値を設けておき、移動量がこの基準値未満であれば、静止していると判定する。したがって、実際には、完全静止状態の場合に加えて、実質的に静止しているに等しい場合も含めて、静止していると判定する。
この判定の様子を示す説明図が図6に示されている。図6に示すように、追跡領域603が移動していない場合でも、テンプレートマッチング処理においてその追跡領域603が追跡対象物体の追跡情報と合致している状態である。この状態では、追跡領域603内の動き領域の量は低下するが、追跡対象物体は一時的に停止動作を行っているだけであり、追跡処理は継続すべきものと考えられる。そこで、本実施形態2においては、追跡対象物体が静止している場合は、追跡処理を継続する。本実施形態2では、上述したように追跡領域603の移動の量が所定の基準値未満であるか否かで、追跡対象物体が静止しているか否かを判定するものである。
本実施形態2においては、追跡対象物体の静止を判断した場合、存在度算出部104aが、動き領域抽出部103からの動き領域情報(に含まれる動き領域)から算出される存在度が基準値未満であっても、判定部104bが追跡を継続すると判定する。ここで、存在度は、実施形態1と同様に、追跡領域203に内包される動き領域204(の量)の比率であるが、さまざまな求め方を採用可能である。
このように、本実施形態2では、存在度が一定の基準値未満であっても、追跡対象物が静止していると判断される場合は、追跡処理を継続する。
本実施形態2における、追跡の継続判定の方法を、図7を用いて詳しく説明する。図7(a)から図7(c)へと時系列に処理が進むと考える。この時、動き領域抽出部103において、基準画像を生成するような処理が含まれる場合、追跡対象物体701が長時間静止すると、基準画像に追跡対象物体701の情報が追加される。この基準画像は、動きがあるか否かを検出する場合の基準画像である。
すると、図7(b)、(c)と処理が進むにつれ、動き領域704は抽出されなくなる。実施形態1では、原則として、動き領域704が減少した場合(存在度の値が基準値未満となった場合)、追跡領域703に対して追跡の中断または終了の判定がなされていた。これに対して、本実施形態2においては、図7(a)から(c)において、テンプレートマッチング処理の結果、追跡領域703に移動がほとんどない場合(静止していると見なせる場合)、判定部104bは、上述したように追跡を継続すると判定する。このような判定が、本実施形態2における判定処理である。
上述した実施形態1では、動き領域情報704が減少した場合、「存在度」が一定の基準値未満となり、追跡処理が中断、終了することによって、遮蔽物に隠れてしまった場合等のドリフトを防止する事が可能であった。しかし、追跡対象物体701が静止していると判断される場合は、ドリフトの恐れは少ないので、追跡処理を継続しても問題は少ないと考えられる。むしろ、将来、追跡対象物体701が動き始めた場合に備えて、追跡処理を継続した方が、迅速に追跡を開始できる可能性が高いと考えられる。そこで、本実施形態2においては、追跡対象物が静止していると判断される場合には、追跡処理を継続することにした。
なお、上記特許文献1でも説明したように、物体検出には、着目したフレーム画像と、予め撮影した背景画像との差分をとる方法の他に、検出対象の物体の画像を学習して識別器を作成し、この識別器によって、検出を行う方法もある。
いずれの場合も、このようにして物体検出した結果と、追跡情報とが対応付けられていれば、追跡処理を継続することは可能である(上記図7参照)。
<実施形態3>
本発明の実施形態3では、判定部104bの結果を基に、表示制御部112が追跡結果の表示方法を変更する例について説明する。
上記実施形態1、2においては、判定部104bが追跡処理を継続するか否かを判定して、追跡処理を継続しないと判定した場合は、追跡処理自体を中止(中断ないし終了等)する。実施形態1、2においては、表示制御部112は、単にその追跡処理結果を画像と重畳等してから表示部110に送出し、表示部110がこれを表示していた。したがって、ユーザは、単に追跡処理結果を表示部110上で見ることができるのみである。
しかしながら、追跡処理自体は継続しつつ、表示を隠す等の工夫をすることも、ユーザにとっては便利である。また、追跡処理が中止された場合、それがどのような中止なのか、知ることができれば便利であることも多いと考えられる。
そこで、本実施形態3では、判定部104bが追跡処理を継続しないと判定した場合に、表示方法に、変更を加え、ユーザに注意喚起するものである。以下、その動作を詳細に説明する。
本実施形態3においては、追跡部101は、判定部104bにて追跡の中断または終了判定がなされた追跡対象物体201について、例えば、追跡継続判定と同等またはより簡易な追跡処理を継続してもよい。簡易な追跡処理とは、演算量が少なくてすむ処理や、精度の低下が許容される追跡処理などをいう。
表示部110は、追跡部101から受けとった追跡情報と、判定部104bから受けとった追跡継続判定の結果を基に、追跡情報の表示方法を変更する。本実施形態3における表示制御の例を以下説明する。
表示制御部112は、追跡継続判定の結果が、継続である場合、例えば、追跡情報を強調表示してから、表示部110に送出する。また、表示制御部112は、追跡継続判定の結果が中断の場合、例えば、追跡情報を抑制表示にしてから、表示部110に送出する。そして、表示制御部112は、追跡継続判定の結果が終了の場合、例えば、追跡情報を表示しない、すなわち、表示部110に対して送出する信号(画像信号)に、追跡情報を含めない。この結果、表示部110は、追跡情報を含まない画像信号による動画像を表示することになる。なお、強調表示、抑制表示等は後に詳述するが、例えば、抑制表示の例は図8に示されている。この図8は、追跡領域803の抑制表示804を破線による表示とした例である。
このように、本実施形態3においては、判定部104bが出力する追跡継続判定の内容に応じて表示制御部112が種々の表示方法を採用している。これによって、ユーザは、追跡の状態を表示部110の表示装置のスクリーン上で認識することができ、利便性の高い情報処理装置を実現することが可能である。ここで、追跡継続判定は、判定部110bの判定結果の情報であり、判定部110bから表示制御部112に供給される(図1参照)。
また、追跡継続判定では、追跡部101の出力する追跡情報と組み合わせて、表示制御部112に供給してもよい。
中断や終了の意味は、上述した実施形態1で述べたとおりの意味でも良いし、また、他の意味や状態を意味させても良い。また、本実施の形態3では、中断、終了の2種類の例を挙げたが、より種類を増やしてもよい。
<実施形態3の変形例>
上記の実施形態3では、追跡処理が継続されず、中止された場合、その中止の種類(中断、終了)に応じて、表示に変更を加える例を説明した。しかし、より簡便に、表示制御部112が、追跡の中止判定から、数フレームだけ、追跡を継続し、追跡領域803とその軌跡809の表示を抑制表示804で表示することもよい。数フレームの「数」はあらかじめ定めておく所定数とすればよい。
本実施形態3の変形例の抑制表示の様子が図8に示されている。数フレームとは、具体的には、動画像のフレームレートにもよるが、2〜3フレームから、10〜10000フレームまで、種々の値をとり得る。典型的には、2フレーム、3フレーム程度の場合も多いが、視認性を重要視する場合は数秒間〜10数秒間に該当するフレーム数とすればよい。また、50フレーム〜500フレーム程度や、100フレームから1000フレーム程度としてもよい。
この動作は、上記実施形態3と同様に、表示制御部112が制御するが、「数」フレームの実際の「数」は、ユーザが任意に外部から設定できるように構成してもよい。
なお、図8では、抑制表示の例として破線による表示が示されているが、種々の抑制表示の方法を採用することができる。強調表示は、通常の表示を強調表示と見なして取り扱う場合もよい。図8の例では、通常の実線で示した追跡領域803を便宜上、強調表示として取り扱っている。太字等の処理を行ってもよい。
(強調表示および抑制表示とその制御方法)
強調表示と抑制表示について説明する。強調表示はユーザに認識されやすい表示であり、追跡情報を例えば実線で表示する。抑制表示は、ユーザに認識されにくい表示であり、追跡情報を破線で表示する。もちろん、これらの表示方法はユーザからの認識しやすさに基づくものであり、特定の方法に限るものではない。また、強調表示は、通常の実線表示を強調表示と見なし、破線表示や灰色表示を抑制表示として取り扱ってもよい。
また、強調表示を目立つ色、例えば赤、にしても良いし、透過度を小さく表示しても良い。抑制表示を目立たない色、例えば黒、にしても良いし、透過度を大きく表示しても良い。また、以上の例(実施形態3、実施形態3の変形例)では、追跡の継続判定結果を基に表示を変更しているが、存在度算出部104aにて計算した存在度の値によって、表示の強調と抑制の度合いを制御しても良い。存在度の値に応じて強調の程度を変化させる処理や、存在度の値に応じて抑制の程度を変化させる処理等を実行すればよい。これらの処理動作も、表示制御部112が行うことがよい。例えば、存在度の値に応じて明度を変化させる処理や、表示の透過度を調整する処理等としてもよい。
以上、本発明の実施形態を種々詳述した。本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<ハードウェア構成例>
また、図1における映像処理装置120中の情報処理装置100は、撮像部を備える電気機器のハードウェアを用いて構成してもよい。このような電子機器10(例えば、デジタルカメラ)の構成ブロック図が図9に示されている。この図に示すように、電子機器10は、CPU11と、ROM12と、RAM13と、外部メモリ14とを備え、これらはバス19を介して相互に接続している。外部メモリ14とは、ハードディスクと、光学ドライブを含む。また、画像取得部である撮像部15と、入力部16と、表示部17と、通信I/F18と、がバス19に接続している。
表示部17は、いわゆるディスプレイであり、ディスプレイインターフェース等を含む構成である。この表示部17は、電子機器10の画面として、追跡領域203等を表示する図1における表示部110として動作することもよい。なお、表示部110は単独のコンピュータで構成しても良く、LANケーブルを用いて、さらにHUB等を介して、上記通信I/F18と接続することがよい。この場合、通信I/F18はあらゆる通信方式が適用され得るが、例えばLANインターフェースであってよい。これによって、表示部110としてのコンピュータは、外部装置から送信されてきた追跡情報等を自装置の表示装置に表示することが可能である。
また、図1の表示部110が実装される例えばコンピュータも、撮像部15を除いた図9のハードウェア構成を備えることができる。
また、図9の構成を採用する場合、追跡部101は、CPU11と、このCPU11が実行するプログラムとから構成すればよい。プログラムは、ROM12、RAM13、外部メモリ14等に格納しておく。または、同プログラムを格納した記憶媒体であるDVDを、光学ドライブに読み込ませて、同プログラムを本コンピュータ10にインストールしてもよい。
また、動き領域抽出部103や、存在度算出部104a、判定部104bも、追跡部101と同様に、CPU11と、このCPU11が実行するプログラムとで構成すればよい。
上記の例では、プログラムを、コンピュータ11内部に格納する例を示したが、通信I/F18を介して外部の不図示のサーバ上でプログラムを実行するように構成しても良い。また、カメラである撮像部15を介して画像を取得するだけでなく、通信I/F18を介して、インターネット等の外部から画像の供給を受けてもかまわない。
以上、本発明の実施形態について詳細に説明したが、前述した実施形態は、本発明を実施するにあたっての具体例を示したに過ぎない。本発明の技術的範囲は、前記実施形態に限定されるものではない。本発明は、その趣旨を逸脱しない範囲において種々の変更が可能であり、それらも本発明の技術的範囲に含まれる。
100 情報処理装置
101 追跡部
102 画像取得部
103 動き領域抽出部
104a 存在度算出部
104b 判定部
110 表示部
112 表示制御部
120 映像処理装置
200 画像
201 追跡対象物体
202 遮蔽物
203 追跡領域
204 動き領域

Claims (19)

  1. 画像中に存在する追跡対象物体を含む追跡領域を特定する追跡手段と、
    前記画像中の前記追跡領域内の動き領域を特定する特定手段と、
    特定された前記動き領域が前記追跡領域に占める割合である動き領域の割合を導出する導出手段と、
    導出された前記割合に基づき、前記追跡対象物体の追跡を継続するか否かを判定する判定手段と、
    を具備することを特徴とする情報処理装置。
  2. 前記判定手段は、前記割合と所定の基準値とを比較し、前記割合が前記所定の基準値未満である場合は、前記追跡対象物体の追跡を中止すると判定することを特徴とする請求項1に記載の情報処理装置。
  3. 前記導出手段は、前記追跡領域と、前記動き領域の信頼度に応じて前記動き領域の面積に重み付けをした面積と、の割合を前記動き領域の割合として導出することを特徴とする請求項1又は2に記載の情報処理装置。
  4. 前記導出手段は、前記追跡領域と、前記動き領域の前記追跡領域の重心からの距離に応じて前記動き領域の面積に重み付けをした面積と、の割合を動き領域の割合として導出することを特徴とする請求項1〜3のいずれか1項に記載の情報処理装置。
  5. 前記導出手段は、前記追跡領域と、前記追跡領域の重心から所定の距離内に抽出された動き領域の面積と、の割合を前記動き領域の割合として導出することを特徴とする請求項1〜3のいずれか1項に記載の情報処理装置。
  6. 前記判定手段は、前記追跡対象物体が静止しているか否かを判定し、前記追跡対象物体が静止していると判定した場合は、前記動き領域の割合の値にかかわらず、前記追跡対象物体の追跡を継続すると判定することを特徴とする請求項1〜5のいずれか1項に記載の情報処理装置。
  7. 前記判定手段は、前記追跡領域に基づき、現在の前記追跡領域の位置と、過去の前記追跡領域の位置との差から前記追跡対象物体の移動量を求め、該移動量が所定の基準値未満である場合に、前記追跡対象物体が静止していると判定することを特徴とする請求項6に記載の情報処理装置。
  8. 前記判定手段が、前記追跡対象物体の追跡を継続すると判定した場合に、前記追跡対象物体の追跡情報を、表示装置に強調表示させる表示制御手段
    をさらに具備することを特徴とする請求項1〜7のいずれか1項に記載の情報処理装置。
  9. 前記判定手段が、前記追跡対象物体の追跡を継続しないと判定した場合であって、前記追跡対象物体の追跡を中断すると判定した場合に、前記追跡対象物体の追跡情報を、表示装置に抑制表示させる表示制御手段
    をさらに具備することを特徴とする請求項1〜8のいずれか1項に記載の情報処理装置。
  10. 前記判定手段が、前記追跡対象物体の追跡を継続しないと判定した場合であって、前記追跡対象物体の追跡を終了すると判定した場合に、前記追跡対象物体の追跡情報を含まない画像信号を、表示装置に表示させる表示制御手段
    をさらに具備することを特徴とする請求項1〜9のいずれか1項に記載の情報処理装置。
  11. 前記判定手段が、前記追跡対象物体の追跡を中止すると判定した場合に、前記追跡情報を数フレームの間、表示装置に抑制表示させる表示制御手段
    をさらに具備することを特徴とする請求項2〜8のいずれか1項に記載の情報処理装置。
  12. 前記表示制御手段は、前記追跡情報の強調表示の強調の程度を、前記動領域割合の値に応じて変化させることを特徴とする請求項8に記載の情報処理装置。
  13. 前記表示制御手段は、前記追跡情報の抑制表示の抑制の程度を、前記動領域割合の値に応じて変化させることを特徴とする請求項9に記載の情報処理装置。
  14. 画像中に存在する追跡対象物体を含む追跡領域に存在する動き領域を特定するステップと、
    特定された前記動き領域が前記追跡領域に占める割合を導出するステップと、
    前記導出された割合に基づき、前記追跡対象物体の追跡を継続するか否かを判定するステップと、
    を含むことを特徴とする情報処理方法。
  15. 前記判定するステップにおいて、前記追跡対象物体が静止しているか否かを判定し、前記追跡対象物体が静止していると判定した場合は、前記動き領域の割合にかかわらず、前記追跡対象物体の追跡を継続すると判定することを特徴とする請求項14に記載の情報処理方法。
  16. 前記判定するステップにおいて、前記追跡対象物体の追跡を継続すると判定した場合に、前記追跡対象物体の追跡情報を、表示装置に強調表示させるステップ
    をさらに含むことを特徴とする請求項14又は15に記載の情報処理方法。
  17. 前記判定するステップにおいて、前記追跡対象物体の追跡を継続しないと判定した場合であって、前記追跡対象物体の追跡を中断すると判定した場合に、前記追跡対象物体の追跡情報を、表示装置に抑制表示させるステップ
    をさらに含むことを特徴とする請求項14〜16のいずれか1項に記載の情報処理方法。
  18. 前記判定するステップにおいて、前記追跡対象物体の追跡を中止すると判定した場合に、前記追跡対象物体の追跡情報を数フレームの間、表示装置に抑制表示させるステップ
    をさらに含むことを特徴とする請求項14〜16のいずれか1項に記載の情報処理方法。
  19. コンピュータが読み込み実行することで、前記コンピュータを請求項1〜13のいずれか1項に記載の情報処理装置の各手段として機能させるプログラム。
JP2014215788A 2014-10-22 2014-10-22 情報処理装置、情報処理方法及びコンピュータプログラム Active JP6525545B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014215788A JP6525545B2 (ja) 2014-10-22 2014-10-22 情報処理装置、情報処理方法及びコンピュータプログラム
US14/887,052 US9747523B2 (en) 2014-10-22 2015-10-19 Information processing apparatus, information processing method, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014215788A JP6525545B2 (ja) 2014-10-22 2014-10-22 情報処理装置、情報処理方法及びコンピュータプログラム

Publications (3)

Publication Number Publication Date
JP2016085487A true JP2016085487A (ja) 2016-05-19
JP2016085487A5 JP2016085487A5 (ja) 2017-12-07
JP6525545B2 JP6525545B2 (ja) 2019-06-05

Family

ID=55792379

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014215788A Active JP6525545B2 (ja) 2014-10-22 2014-10-22 情報処理装置、情報処理方法及びコンピュータプログラム

Country Status (2)

Country Link
US (1) US9747523B2 (ja)
JP (1) JP6525545B2 (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017221644A1 (ja) * 2016-06-22 2017-12-28 ソニー株式会社 画像処理装置、画像処理システム、および画像処理方法、並びにプログラム
WO2017221643A1 (ja) * 2016-06-22 2017-12-28 ソニー株式会社 画像処理装置、画像処理システム、および画像処理方法、並びにプログラム
JP2018124689A (ja) * 2017-01-31 2018-08-09 株式会社日立製作所 移動物体検出装置、移動物体検出システム、及び移動物体検出方法
JP2019176518A (ja) * 2019-07-03 2019-10-10 京セラドキュメントソリューションズ株式会社 撮像装置
JP2020160901A (ja) * 2019-03-27 2020-10-01 オムロン株式会社 物体追跡装置および物体追跡方法
JP2020534609A (ja) * 2018-03-06 2020-11-26 北京市商▲湯▼科技▲開▼▲発▼有限公司Beijing Sensetime Technology Development Co., Ltd. 目標トラッキング方法及び装置、電子機器並びに記憶媒体
US11216955B2 (en) 2018-03-06 2022-01-04 Beijing Sensetime Technology Development Co., Ltd. Target tracking methods and apparatuses, electronic devices, and storage media
JP2022506637A (ja) * 2019-01-29 2022-01-17 ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド 画像処理方法および装置、ネットワークトレーニング方法および装置
WO2022107651A1 (ja) * 2020-11-17 2022-05-27 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、システム、情報処理方法および情報処理プログラム
JP7280426B1 (ja) 2022-11-01 2023-05-23 株式会社 日立産業制御ソリューションズ 物体検出装置および物体検出方法

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5919665B2 (ja) * 2011-07-19 2016-05-18 日本電気株式会社 情報処理装置、物体追跡方法および情報処理プログラム
KR20140147205A (ko) * 2013-06-18 2014-12-30 삼성전자주식회사 휴대 가능한 의료 진단 장치의 주행 경로 제공 방법 및 장치
US10055895B2 (en) * 2016-01-29 2018-08-21 Snap Inc. Local augmented reality persistent sticker objects
DE102016210017A1 (de) * 2016-06-07 2017-12-07 Robert Bosch Gmbh Verfahren Vorrichtung und System zur Falschfahrererkennung
JP6894725B2 (ja) * 2017-03-09 2021-06-30 キヤノン株式会社 画像処理装置及びその制御方法、プログラム、記憶媒体
US11450009B2 (en) * 2018-02-26 2022-09-20 Intel Corporation Object detection with modified image background
US11281926B2 (en) * 2018-06-04 2022-03-22 Denso Corporation Feature extraction method and apparatus

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05205052A (ja) * 1992-01-23 1993-08-13 Matsushita Electric Ind Co Ltd 自動追尾装置
JP2004258925A (ja) * 2003-02-25 2004-09-16 Matsushita Electric Works Ltd 画像追跡装置
JP2005250989A (ja) * 2004-03-05 2005-09-15 Sony Corp 移動物体追跡方法及び画像処理装置
JP2012108798A (ja) * 2010-11-18 2012-06-07 Secom Co Ltd 移動物体追跡装置
JP2012221283A (ja) * 2011-04-11 2012-11-12 Canon Inc 移動量測定装置および移動量測定方法
WO2013128852A1 (ja) * 2012-02-29 2013-09-06 日本電気株式会社 動線情報生成システム、動線情報生成方法および動線情報生成プログラム
JP2014149716A (ja) * 2013-02-01 2014-08-21 Panasonic Corp 物体追跡装置及びその方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100459893B1 (ko) * 2002-01-08 2004-12-04 삼성전자주식회사 동영상에서 칼라 기반의 객체를 추적하는 방법 및 그 장치
WO2005066897A1 (ja) * 2004-01-06 2005-07-21 Sony Corporation 画像処理装置および方法、記録媒体、並びにプログラム
US20060126738A1 (en) * 2004-12-15 2006-06-15 International Business Machines Corporation Method, system and program product for a plurality of cameras to track an object using motion vector data
JP4318724B2 (ja) * 2007-02-14 2009-08-26 パナソニック株式会社 監視カメラ及び監視カメラ制御方法
WO2009128064A2 (en) * 2008-04-14 2009-10-22 Pointgrab Ltd. Vision based pointing device emulation
JP5268433B2 (ja) * 2008-06-02 2013-08-21 キヤノン株式会社 撮像装置、及び撮像装置の制御方法
JP5279635B2 (ja) * 2008-08-20 2013-09-04 キヤノン株式会社 画像処理装置、画像処理方法、および、プログラム
JP5159515B2 (ja) * 2008-08-26 2013-03-06 キヤノン株式会社 画像処理装置およびその制御方法
WO2010113929A1 (ja) * 2009-03-31 2010-10-07 日本電気株式会社 追尾対象判定装置、追尾対象判定方法、および追尾対象判定プログラム
JP2012133759A (ja) * 2010-11-29 2012-07-12 Canon Inc 侵入物体の検知を行うことができる物体追尾装置、物体追尾方法及び記憶媒体
JP2012205037A (ja) * 2011-03-25 2012-10-22 Olympus Imaging Corp 画像処理装置および画像処理方法
JP5919665B2 (ja) 2011-07-19 2016-05-18 日本電気株式会社 情報処理装置、物体追跡方法および情報処理プログラム
US9530221B2 (en) * 2012-01-06 2016-12-27 Pelco, Inc. Context aware moving object detection
CN103679125B (zh) * 2012-09-24 2016-12-21 致伸科技股份有限公司 人脸追踪的方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05205052A (ja) * 1992-01-23 1993-08-13 Matsushita Electric Ind Co Ltd 自動追尾装置
JP2004258925A (ja) * 2003-02-25 2004-09-16 Matsushita Electric Works Ltd 画像追跡装置
JP2005250989A (ja) * 2004-03-05 2005-09-15 Sony Corp 移動物体追跡方法及び画像処理装置
JP2012108798A (ja) * 2010-11-18 2012-06-07 Secom Co Ltd 移動物体追跡装置
JP2012221283A (ja) * 2011-04-11 2012-11-12 Canon Inc 移動量測定装置および移動量測定方法
WO2013128852A1 (ja) * 2012-02-29 2013-09-06 日本電気株式会社 動線情報生成システム、動線情報生成方法および動線情報生成プログラム
JP2014149716A (ja) * 2013-02-01 2014-08-21 Panasonic Corp 物体追跡装置及びその方法

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10867166B2 (en) 2016-06-22 2020-12-15 Sony Corporation Image processing apparatus, image processing system, and image processing method
WO2017221643A1 (ja) * 2016-06-22 2017-12-28 ソニー株式会社 画像処理装置、画像処理システム、および画像処理方法、並びにプログラム
JPWO2017221644A1 (ja) * 2016-06-22 2019-04-11 ソニー株式会社 画像処理装置、画像処理システム、および画像処理方法、並びにプログラム
JPWO2017221643A1 (ja) * 2016-06-22 2019-04-11 ソニー株式会社 画像処理装置、画像処理システム、および画像処理方法、並びにプログラム
WO2017221644A1 (ja) * 2016-06-22 2017-12-28 ソニー株式会社 画像処理装置、画像処理システム、および画像処理方法、並びにプログラム
JP7014161B2 (ja) 2016-06-22 2022-02-15 ソニーグループ株式会社 画像処理装置、画像処理システム、および画像処理方法、並びにプログラム
US11132538B2 (en) 2016-06-22 2021-09-28 Sony Corporation Image processing apparatus, image processing system, and image processing method
JP2018124689A (ja) * 2017-01-31 2018-08-09 株式会社日立製作所 移動物体検出装置、移動物体検出システム、及び移動物体検出方法
JP7163372B2 (ja) 2018-03-06 2022-10-31 北京市商▲湯▼科技▲開▼▲発▼有限公司 目標トラッキング方法及び装置、電子機器並びに記憶媒体
JP2020534609A (ja) * 2018-03-06 2020-11-26 北京市商▲湯▼科技▲開▼▲発▼有限公司Beijing Sensetime Technology Development Co., Ltd. 目標トラッキング方法及び装置、電子機器並びに記憶媒体
US11216955B2 (en) 2018-03-06 2022-01-04 Beijing Sensetime Technology Development Co., Ltd. Target tracking methods and apparatuses, electronic devices, and storage media
US11699240B2 (en) 2018-03-06 2023-07-11 Beijing Sensetime Technology Development Co., Ltd. Target tracking method and apparatus, and storage medium
JP2022506637A (ja) * 2019-01-29 2022-01-17 ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド 画像処理方法および装置、ネットワークトレーニング方法および装置
JP2020160901A (ja) * 2019-03-27 2020-10-01 オムロン株式会社 物体追跡装置および物体追跡方法
JP7243372B2 (ja) 2019-03-27 2023-03-22 オムロン株式会社 物体追跡装置および物体追跡方法
JP2019176518A (ja) * 2019-07-03 2019-10-10 京セラドキュメントソリューションズ株式会社 撮像装置
WO2022107651A1 (ja) * 2020-11-17 2022-05-27 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、システム、情報処理方法および情報処理プログラム
JP2022080112A (ja) * 2020-11-17 2022-05-27 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、システム、情報処理方法および情報処理プログラム
JP7300436B2 (ja) 2020-11-17 2023-06-29 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、システム、情報処理方法および情報処理プログラム
JP7280426B1 (ja) 2022-11-01 2023-05-23 株式会社 日立産業制御ソリューションズ 物体検出装置および物体検出方法
JP2024066084A (ja) * 2022-11-01 2024-05-15 株式会社 日立産業制御ソリューションズ 物体検出装置および物体検出方法

Also Published As

Publication number Publication date
JP6525545B2 (ja) 2019-06-05
US9747523B2 (en) 2017-08-29
US20160117840A1 (en) 2016-04-28

Similar Documents

Publication Publication Date Title
JP6525545B2 (ja) 情報処理装置、情報処理方法及びコンピュータプログラム
US10506174B2 (en) Information processing apparatus and method for identifying objects and instructing a capturing apparatus, and storage medium for performing the processes
EP3319041B1 (en) Image processing apparatus, image processing method, and storage medium
US9317772B2 (en) Method for improving tracking using dynamic background compensation with centroid compensation
US10776931B2 (en) Image processing system for detecting stationary state of moving object from image, image processing method, and recording medium
US20160300100A1 (en) Image capturing apparatus and method
JP5754990B2 (ja) 情報処理装置、情報処理方法及びプログラム
KR20090091032A (ko) 입자 여과를 이용하여 이동 물체를 추적하는 시스템
JP6414066B2 (ja) 画像処理システム、画像処理方法及びプログラム
KR20170056860A (ko) 이미지 생성 방법 및 장치
EP2570992A1 (en) Image processing apparatus, image processing method, and program
US20150146006A1 (en) Display control apparatus and display control method
JP6551226B2 (ja) 情報処理システム、情報処理方法及びプログラム
KR20110074107A (ko) 카메라를 이용한 오브젝트 검출 방법
US11605224B2 (en) Automated media editing operations in consumer devices
KR20160037480A (ko) 지능형 영상 분석을 위한 관심 영역 설정 방법 및 이에 따른 영상 분석 장치
WO2013017184A1 (en) Method and device for video surveillance
CN111986229A (zh) 视频目标检测方法、装置及计算机***
US20200250833A1 (en) Image processing apparatus, image processing method, and storage medium
JPWO2018179119A1 (ja) 映像解析装置、映像解析方法およびプログラム
US11507768B2 (en) Information processing apparatus, information processing method, and storage medium
US10740623B2 (en) Representative image generation device and representative image generation method
JP5128454B2 (ja) 瞼検出装置、瞼検出方法及びプログラム
KR102161212B1 (ko) 움직임 검출 시스템 및 방법
JP2021077177A (ja) 動作認識装置、動作認識方法及び動作認識プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171020

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171020

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180831

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180911

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181107

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190409

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190507

R151 Written notification of patent or utility model registration

Ref document number: 6525545

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151