JP5954106B2 - 情報処理装置、情報処理方法、プログラム、及び情報処理システム - Google Patents

情報処理装置、情報処理方法、プログラム、及び情報処理システム Download PDF

Info

Publication number
JP5954106B2
JP5954106B2 JP2012232791A JP2012232791A JP5954106B2 JP 5954106 B2 JP5954106 B2 JP 5954106B2 JP 2012232791 A JP2012232791 A JP 2012232791A JP 2012232791 A JP2012232791 A JP 2012232791A JP 5954106 B2 JP5954106 B2 JP 5954106B2
Authority
JP
Japan
Prior art keywords
image
images
time point
information processing
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012232791A
Other languages
English (en)
Other versions
JP2014086797A (ja
Inventor
啓宏 王
啓宏 王
憲一 岡田
憲一 岡田
健 宮下
健 宮下
明美 田崎
明美 田崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2012232791A priority Critical patent/JP5954106B2/ja
Priority to US14/043,205 priority patent/US9298987B2/en
Priority to CN201310481779.9A priority patent/CN103780872B/zh
Publication of JP2014086797A publication Critical patent/JP2014086797A/ja
Application granted granted Critical
Publication of JP5954106B2 publication Critical patent/JP5954106B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19608Tracking movement of a target, e.g. by detecting an object predefined as a target, using target direction and or velocity to predict its new position

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Alarm Systems (AREA)

Description

本技術は、例えば監視カメラシステム等に用いることが可能な情報処理装置、情報処理方法、プログラム、及び情報処理システムに関する。
例えば特許文献1に記載の監視カメラシステムでは、ディスプレイの画面上に、監視カメラの撮影した画像が表示されるとともに、この画像に重畳してポインティングデバイスの座標位置を示すポインタが表示される。ポインティングデバイスの操作により監視カメラの撮影した画像上の第1の点から第2の点までポインタを移動させたとき、遠隔操作・監視装置から監視カメラに所定の制御信号が送信される。この制御信号により、監視カメラを、ポインタの移動方向に、第1の点から第2の点までの長さに比例した速度で移動させる。これにより操作性に優れた監視カメラシステムが提供される(特許文献1の明細書段落[0016][0017]等参照)。
特開2009−225471号公報
特許文献1に記載のような有用な監視カメラシステムの実現を可能とするための技術が求められている。
以上のような事情に鑑み、本技術の目的は、有用な監視カメラシステムを実現することが可能となる情報処理装置、情報処理方法、プログラム、及び情報処理システムを提供することにある。
上記目的を達成するため、本技術の一形態に係る情報処理装置は、入力部と、注目オブジェクト検出部と、算出部とを具備する。
前記入力部は、撮像装置により撮影された時間的に連続する複数の画像を入力する。
前記注目オブジェクト検出部は、前記入力された複数の画像のうちの第1の時点の画像である第1の画像から注目対象となる注目対象オブジェクトを検出する。
前記算出部は、前記第1の画像と、前記第1の時点よりも前の時点の1以上の画像である1以上の第2の画像のそれぞれとを比較することで、前記連続する複数の画像における前記注目オブジェクトの出現時点を第2の時点として算出する。
この情報処理装置では、注目オブジェクトが検出された第1の時点の第1の画像と、第1の時点よりも前の時点の1以上の第2の画像とが比較される。そして連続する複数の画像における注目オブジェクトの出現時点として第2の時点が算出される。これにより有用な監視カメラシステムを実現することが可能となる。
前記注目オブジェクト検出部は、前記第1の時点よりも前の所定の時点の画像から前記第1の画像までの1以上の画像において、所定のオブジェクトの検出が維持された場合、前記所定のオブジェクトを前記注目オブジェクトとして検出してもよい。この場合、前記算出部は、前記所定の時点の画像から前記第1の画像の直前までの1以上の画像を前記1以上の第2の画像として、前記所定のオブジェクトの検出の維持を前記比較の結果として援用することで、前記所定の時点を前記第2の時点として算出してもよい。
このように所定の時点から第1の時点までの所定のオブジェクトの検出の維持が判定されてもよい。検出の維持を、第1の時点の第1の画像と、第1の時点までの1以上の第2の画像との比較の結果として援用することで、所定の時点が第2に時点として算出される。
前記時間的に連続する複数の画像は、所定の撮影空間が撮影された画像であってもよい。この場合、前記情報処理装置は、前記所定の撮影空間の基準状態を撮影した画像である基準画像と、前記複数の画像のそれぞれとの差分を検出可能な差分検出部をさらに具備してもよい。また前記注目オブジェクト検出部は、前記差分検出部により検出された前記基準画像との差分をもとに、前記所定のオブジェクトの検出の維持を判定してもよい。
このように基準画像と複数の画像との差分が検出されてもよい。そしてその結果をもとに、所定のオブジェクトの検出の維持が判定されてもよい。
前記情報処理装置は、さらに、前記検出された注目オブジェクトの動きを検出して当該動きを表現する動き画像を出力することが可能な動き画像出力部を具備してもよい。
動き画像が出力されることで、注目オブジェクトの動きを明確に把握することが可能となる。
前記情報処理装置は、前記複数の画像から人物のオブジェクトを検出することが可能な人物オブジェクト検出部をさらに具備してもよい。この場合、前記動き画像出力部は、前記第2の時点の画像における前記注目オブジェクトに最も近い位置の前記人物オブジェクトの動き画像を出力してもよい。
このように注目オブジェクトに最も近い位置の人物オブジェクトの動き画像が出力されてもよい。
前記情報処理装置は、さらに、第1の記憶部と、人物情報出力部とを具備してもよい。
前記第1の記憶部は、前記検出された人物オブジェクトの情報を記憶する。
前記人物情報出力部は、前記注目オブジェクトに最も近い位置の前記人物オブジェクトを選択する指示に応じて、当該選択された人物オブジェクトの情報を出力する。
これにより注目オブジェクトと関係する可能性が高い人物の情報を簡単に取得することができる。
前記情報処理装置は、さらに、第2の記憶部と、対応画像出力部とを具備してもよい。
前記第2の記憶部は、前記動き画像上の位置と前記複数の画像との対応付けを記憶する。
前記対応画像出力部は、前記動き画像上の所定の位置を選択する指示に応じて、前記複数の画像から前記選択された所定の位置に対応付けられた画像を出力する。
このような対応付けが記憶されることにより、例えば動き画像上への操作を入力することで、所定の時点の画像を直感的に分りやすく表示させること等が可能となる。
前記算出部は、前記第1の画像の少なくとも前記注目オブジェクトを含む領域の画像である第1の領域画像と、前記1以上の第2の画像のそれぞれの前記第1の領域画像に対応する領域の画像である1以上の第2の領域画像とを比較することで、前記第2の時点を算出してもよい。
このように第2の時点の算出に、第1及び第2の画像の部分的な画像である第1及び第2の領域画像が用いられてもよい。
本技術の一形態に係る情報処理方法は、コンピュータにより実行される情報処理方法であって、撮像装置により撮影された時間的に連続する複数の画像を入力することを含む。
前記入力された複数の画像のうちの第1の時点の画像である第1の画像から注目対象となる注目対象オブジェクトが検出される。
前記第1の画像と、前記第1の時点よりも前の時点の1以上の画像である1以上の第2の画像のそれぞれとが比較されることで、前記連続する複数の画像における前記注目オブジェクトの出現時点が第2の時点として算出される。
本技術の一形態に係るプログラムは、コンピュータに以下のステップを実行させる。
撮像装置により撮影された時間的に連続する複数の画像を入力するステップ。
前記入力された複数の画像のうちの第1の時点の画像である第1の画像から注目対象となる注目対象オブジェクトを検出するステップ。
前記第1の画像と、前記第1の時点よりも前の時点の1以上の画像である1以上の第2の画像のそれぞれとを比較することで、前記連続する複数の画像における前記注目オブジェクトの出現時点を第2の時点として算出するステップ。
本技術の一形態に係る情報処理システムは、1以上の撮像装置と、情報処理装置とを具備する。
前記1以上の撮像装置は、時間的に連続する複数の画像を撮影可能である。
前記情報処理装置は、入力部と、注目オブジェクト検出部と、算出部とを有する。
前記入力部は、前記撮像装置により撮影された連続する複数の画像を入力する。
前記注目オブジェクト検出部は、前記入力された複数の画像のうちの第1の時点の画像である第1の画像から注目対象となる注目対象オブジェクトを検出する。
前記算出部は、前記第1の画像と、前記第1の時点よりも前の時点の1以上の画像である1以上の第2の画像のそれぞれとを比較することで、前記連続する複数の画像における前記注目オブジェクトの出現時点を第2の時点として算出する。
以上のように、本技術によれば、有用な監視カメラシステムを実現することが可能となる。
本技術の一実施形態に係る情報処理装置を含む監視カメラシステムの構成例を示すブロック図である。 本実施形態において生成される動画データの一例を示す模式的な図である。 カメラにより撮影された動画の一例を示す模式的な図である。 本実施形態に係る基準画像の一例を示す模式的な図である。 第2の時点を算出するためのより具体的な処理例を示すフローチャートである。 図5に示す処理を説明するための動画を示す模式的な図である。 不審物の検出及び不審物の出現時刻の算出をもとに行われる警報表示等の処理例を示すフローチャートである。 図7に示す処理の実行時のクライアント装置の画面を示す模式的な図である。 図7に示す処理の実行時のクライアント装置の画面を示す模式的な図である。 図7に示す処理の実行時のクライアント装置の画面を示す模式的な図である。 図7に示す処理の実行時のクライアント装置の画面を示す模式的な図である。 クライアント装置及びサーバ装置として用いられるコンピュータの構成例を示す模式的なブロック図である。 本技術の監視カメラシステムにより実行可能な処理を示すための図である。 本技術の監視カメラシステムにより実行可能な処理を示すための図である。 本技術の監視カメラシステムにより実行可能な処理を示すための図である。 本技術の監視カメラシステムにより実行可能な処理を示すための図である。
以下、本技術に係る実施形態を、図面を参照しながら説明する。
[監視カメラシステム]
図1は、本技術の一実施形態に係る情報処理装置を含む監視カメラシステムの構成例を示すブロック図である。
監視カメラシステム100は、1以上のカメラ10と、本実施形態に係る情報処理装置であるサーバ装置20と、クライアント装置30とを有する。1以上のカメラ10及びサーバ装置20はネットワーク5を介して接続される。またサーバ装置20及びクライアント装置30もネットワーク5を介して接続される。
ネットワーク5としては、例えばLAN(Local Area Network)やWAN(Wide Area Network)等が用いられる。ネットワーク5の種類やそれに用いられるプロトコル等は限定されない。図1に示す2つのネットワーク5が互いに同じものである必要はない。
カメラ10は、例えばデジタルビデオカメラ等の動画を撮影することが可能なカメラである。カメラ10により、動画データが生成され、当該動画データがサーバ装置20へネットワーク5を介して送信される。
図2は、本実施形態において生成される動画データの一例を示す模式的な図である。動画データ11は、時間的に連続する複数のフレーム画像12により構成される。フレーム画像12は、例えば30fps(frame per second)や60fpsのフレームレートで生成される。なおインターレース方式によりフィールド単位で動画データが生成されてもよい。カメラ10は、本実施形態に係る撮像装置に相当する。
図2に示すように、複数のフレーム画像12は時間軸に沿って生成される。図2で見て左側から右側にかけてフレーム画像12は生成される。従って左側に位置するフレーム画像12は動画データ11の前半部分に相当し、右側に位置するフレーム画像12は動画データ11の後半部分に相当する。
クライアント装置30は、通信部31及びGUI部32を有する。通信部31は、ネットワーク5を介したサーバ装置20との通信に用いられる。GUI部32は、動画11、種々の操作のためのGUI(Graphical User Interface)、及びその他の情報等を表示する。例えばサーバ装置20からネットワーク5を介して送信された動画11等が通信部31により受信される。当該動画等はGUI部32に出力され、所定のGUIにより図示しない表示部に表示される。
また表示部に表示されたGUI等を介して、ユーザからの操作がGUI部32に入力される。GUI部32は、入力された操作をもとに指示情報を生成して通信部31に出力する。通信部31により指示情報がネットワーク5を介してサーバ装置20に送信される。なお入力された操作をもとに指示情報を生成して出力するブロックが、GUI部32とは別に設けられてもよい。
クライアント装置30としては、例えばPC(Personal Computer)や、タブレット等の携帯端末が用いられる。これらに限定される訳ではない。
サーバ装置20は、カメラ管理部21と、これに接続されたカメラ制御部22及び画像解析部23とを有する。またサーバ装置20は、データ管理部24と、警報管理部25と、種々のデータを記憶する記憶部208とを有する。またサーバ装置20は、クライアント装置30との通信に用いられる通信部27を有する。通信部27には、カメラ制御部22、画像解析部23、データ管理部24、及び警報管理部25が接続される。
通信部27は、接続された各ブロックから出力される動画11や種々の情報を、ネットワーク5を介してクライアント装置30へ送信する。またクライアント装置30から送信された指示情報を受信し、サーバ装置20の各ブロックに出力する。例えばサーバ装置20の動作を制御する図示しない制御ユニット等を介して各ブロックに指示情報が出力されてもよい。通信部27は、本実施形態において、ユーザからの指示を入力する指示入力部として機能する。
カメラ管理部21は、カメラ制御部22からの制御信号を、ネットワーク5を介して、カメラ10に送信する。これによりカメラ10の種々の動作が制御される。例えばカメラのパン・チルト動作、ズーム動作、フォーカス動作等が制御される。
またカメラ管理部21は、カメラ10からネットワーク5を介して送信される動画11を受信する。そして当該動画11を画像解析部23へ出力する。必要であればノイズ処理等の前処理が実行されてもよい。カメラ管理部21は、本実施形態において、入力部として機能する。
画像解析部23は、各カメラ10からの動画11をフレーム画像12ごとに解析する。例えばフレーム画像12に映っているオブジェクトの種類や数、オブジェクトの動き等が解析される。本実施形態では、画像解析部23により、連続する複数のフレーム画像12のうちの第1の時点のフレーム画像12から不審物等の注目対象となる注目オブジェクトが検出される。また動画データ11における注目オブジェクトの出現時点が第2の時点として算出される。
また画像解析部23は、2つの画像の差分を算出することが可能である。本実施形態では、画像解析部23により、フレーム画像12間の差分が検出される。また所定の基準画像と、複数のフレーム画像12のそれぞれとの差分が検出される。2つの画像の差分を算出するために用いられる技術は限定されない。典型的には、2つの画像の輝度値の差が差分として算出される。その他、輝度値の絶対差分和、輝度値に関する正規化相関係数、周波数成分等が用いられて差分が算出されてもよい。その他、パターンマッチング等に用いられる技術が適宜用いられてよい。
本実施形態では、所定の撮影空間が撮影されることで、複数のフレーム画像12からなる動画11が生成される。ここで撮影空間の基準状態の画像が上記した基準画像として撮影される。撮影空間の基準状態とは、撮影空間に不審物等がない正常な状態を意味する。この基準画像とフレーム画像12との差分をもとに、フレーム画像12内のオブジェクトが検出される。例えば撮影空間に人物がいる状態で撮影されたフレーム画像12であれば、当該人物がオブジェクトとして検出される。なおフレーム画像12からオブジェクトを検出する方法は限定されない。
また画像解析部23は、検出されたオブジェクトの追跡を実行することが可能である。すなわち画像解析部23により、オブジェクトの動きが検出されその追跡データが生成される。例えば追跡対象のオブジェクトの位置情報が、連続するフレーム画像12ごとに算出される。当該位置情報が、オブジェクトの追跡データとして用いられる。画像解析部23により、注目オブジェクトや所定の人物オブジェクトが追跡される。オブジェクトの追跡に用いられる技術は限定されず、周知の技術が用いられてよい。
また画像解析部23は、各フレーム画像12から抽出されたオブジェクトが人物であるか否かを判定することが可能である。従ってフレーム画像12内から人物のオブジェクトを検出することが可能である。
本実施形態に係る画像解析部23は、注目オブジェクト検出部、算出部、差分検出部、動き画像出力部の一部、人物オブジェクト検出部として機能する。各機能が1つのブロックで実現される必要はなく、各機能を実現するためのブロックが個別に設定されてもよい。
データ管理部24は、動画データ11、画像解析部23による解析結果のデータ、及びクライアント装置30から送信された指示データ等を管理する。またデータ管理部24は、記憶部208に記憶されたメタ情報データや過去の動画等のビデオデータ、及び警報管理部25からの警報表示(アラーム表示)に関するデータ等を管理する。
本実施形態では、画像解析部23からデータ管理部24に、注目オブジェクトや所定の人物オブジェクトの追跡データが出力される。そしてデータ管理部24により、追跡データをもとに注目オブジェクト等の動きを表現する動き画像が出力される。なお、動き画像を生成するブロックが別個設けられ、当該ブロックにデータ管理部から追跡データが出力されてもよい。
また本実施形態では、記憶部208に、動画11内に出現する人物オブジェクトの情報が記憶されている。例えば監視カメラシステム100が用いられる会社や建物に関する人物のデータが予め記憶されている。データ管理部24は、所定の人物オブジェクトが検出されて選択された場合等において、当該人物オブジェクトの情報を記憶部208から読み出して出力する。なお部外者等の、データが記憶されていない人物に対しては、その旨のデータが人物オブジェクトの情報として出力されてもよい。
また記憶部208には、動き画像上の位置と複数のフレーム画像12との対応付けが記憶される。データ管理部24は、この対応付けをもとに、動き画像上の所定の位置を選択する指示に応じて、複数のフレーム画像12から、選択された所定の位置に対応付けられたフレーム画像12を出力する。
本実施形態では、データ管理部24は、動き画像出力部の一部、人物情報出力部、及び対応画像出力部として機能する。また記憶部208は、第1及び第2の記憶部として機能する。
警報管理部25は、フレーム画像12内のオブジェクトに対する警報表示を管理する。例えばユーザからの指示や画像解析部23による解析結果をもとに、所定のオブジェクトが注目オブジェクト(不審物等)として検出される。検出された不審者等は警報表示される。この際、警報表示の種類や警報表示の実行のタイミング等が管理される。また警報表示の履歴等が管理される。
[監視カメラシステムの動作]
本実施形態に係る監視カメラシステム100の動作の概要を説明する。図3は、カメラ10により撮影された動画11の一例を示す模式的な図である。
図3に示すように、建物40内の所定の空間を撮影空間とするカメラ10により動画11が撮影される。ここでは廊下41の曲がり角42を中心とした撮影空間が撮影される。建物40内の廊下41を、手に鞄50を持った人物51が歩いてくる(フレーム画像12A及び12B)。廊下41を進む人物51は、曲がり角42にて鞄50を廊下に置く(フレーム画像12C)。そのまま人物51は、廊下41を進み画面15から消えていく(フレーム画像D及びE)。このような動画11が撮影されたとする。
図3に示す5つのフレーム画像12A−12Eは、図2に示す動画データ11の所定の間隔で位置するフレーム画像とする(図2の12A−12E)。各フレーム画像12は、所定の時刻t1−t5でそれぞれ撮影されたフレーム画像12である。ここで時刻t5に撮影されたフレーム画像12Eを、第1の時点の第1の画像とする。そして、当該フレーム画像12Eから注目オブジェクト55として鞄50が検出されたとする。
注目オブジェクト55の検出方法としては任意の方法が用いられてよい。例えば図4に示す基準画像14が用いられて、この基準画像14とフレーム画像12Eとの差分をもとに注目オブジェクト55が検出されてもよい。ここでは注目オブジェクト55として検出された鞄50が不審物として取り扱われる。以下、注目オブジェクト55を不審物55として記載する場合がある。
第1の画像として設定されたフレーム画像12Eと、第1の時点である時刻t5よりも前の時点の1以上の第2の画像とが比較される。ここでは図3に示すフレーム画像12A−12Dが第2の画像として用いられる。フレーム画像12Eと、フレーム画像12A−12Dのそれぞれとが比較されることで、連続する複数のフレーム画像12における注目オブジェクト55の出現時点としての第2の時点が算出される。ここでは、フレーム画像12Eにて不審物55が存在する曲がり角42の位置に、不審物55が置かれた時点が第2の時点として算出される。
不審物55の出現時点の算出方法としては任意の方法が用いられてよい。典型的には、不審物55が置かれた領域での画像変化の有無が判定される。そして画像変化が生じたフレーム画像12の撮影時刻をもとに第2の時点が算出される。図3に示す例では、フレーム画像12Cの曲がり角42には鞄50があり、その前のフレーム画像12Bでは曲がり角42に鞄50がない。この結果、フレーム画像12Cが撮影された時刻t3が第2の時点として算出される。
このように本実施形態では、サーバ装置20により、注目オブジェクト55が検出された第1の時点の第1の画像と、第1の時点よりも前の時点の1以上の第2の画像とが比較される。そして連続する複数のフレーム画像12における注目オブジェクト55の出現時点が第2の時点として算出される。これにより注目オブジェクト55がどのようにして誰によって置かれたか等を簡単に確認することが可能となる。この結果、有用な監視カメラシステム100を実現することが可能となる。
なお1以上の第2の画像として設定されるフレーム画像12は限定されない。第1の時点よりも前の時点のフレーム画像12であれば、どのフレーム画像12が第2の画像として設定されてもよい。上記したように、所定の間隔で位置する複数のフレーム画像12が第2の画像として設定されてもよい。又は第1の時点の直前までの連続する複数のフレーム画像12が第2の画像として設定されてもよい。
図5は、第2の時点を算出するためのより具体的な処理例を示すフローチャートである。図6は、この処理を説明するための動画11を示す模式的な図である。ここで説明する第2の時点の算出方法では、動画11の撮影とともに、フレーム画像12に対してオブジェクト検出処理が実行される。このオブジェクトの検出には基準画像14が用いられる。そのために、まず画像の初期化として、基準画像14の撮影が実行される(ステップ101)。基準画像14は、例えば基準状態の撮影空間に対して撮影を始めるに当たって、最初に撮影された画像が用いられる。あるいは、基準状態の撮影空間が予め撮影されることで、基準画像が準備されてもよい。
撮影空間に対する撮影が開始されて、現在時刻Tのフレーム画像12Tが撮影される(ステップ102)。現在時刻Tというのは、実際に撮影が行われる時刻を意味し、撮影が進むにつれて変化する値である。例えば撮影開始の時刻を00時00分とするならば、00時00分のフレーム画像12が現在時刻Tのフレーム画像12Tとして撮影される。そこから1分進んだ場合は、00時01分のフレーム画像12が、現在時刻Tのフレーム画像12Tとして撮影される。
現在時刻Tのフレーム画像12Tと基準画像14との差分が算出されて、オブジェクトの検出が実行される(ステップ103)。なお基準画像14が用いられずに、オブジェクトの検出が実行されてもよい。基準画像14との差分がないと判定された場合(ステップ103のNo)、次のフレーム画像12が、現在時刻Tのフレーム画像12Tとして撮影される(ステップ101)。
なお、時間的に連続する全てのフレーム画像12が順番に基準画像14と比較されなくてもよい。例えば所定の時間後に撮影されたフレーム画像12が、次の現在時刻Tのフレーム画像12Tとして設定されてもよい。ここでは、説明を分りやすくするために、1秒後に撮影されるフレーム画像12が、次の現在時刻Tのフレーム画像12Tとして撮影される。従って、1秒ごとに撮影されるフレーム画像12と基準画像14との差分が算出されることになる。
現在時刻Tのフレーム画像12Tと基準画像14との差分がある場合(ステップ103のYes)、その差分から検出されるオブジェクトが人物オブジェクトであるか否かが判定される(ステップ104)。検出されたオブジェクトが人物オブジェクトであると判定された場合(ステップ104のNo)、次のフレーム画像12が現在時刻Tのフレーム画像12Tとして撮影される(ステップ101)。
検出されたオブジェクトが人物オブジェクトでないと判定された場合(ステップ104のYes)、基準画像14との差分が所定の時間t以上続いているか否かが判定される(ステップ105)。従ってステップ105にて、人物ではない所定のオブジェクトの検出が、所定の時間tよりも長く維持されているかが判定される。
所定のオブジェクトの検出が維持されるとは、その後に続くフレーム画像12からもそのオブジェクトが検出されることを意味する。所定の時間tは任意に設定されてよく、ここでは所定の時間tを30秒とする。例えば図6に示す時刻Tで撮影されたフレーム画像12Tに、人物でない所定のオブジェクトが検出されたとする。この場合に、フレーム画像12Tから後の1秒ごとに撮影される30枚のフレーム画像12にて、所定のオブジェクトの検出が維持されるか否かが判定される。
オブジェクトの検出が30秒以上維持されていないと判定された場合(ステップ105のNo)、次の1秒後のフレーム画像12が撮影され、基準画像14と比較される(ステップ101)。そしてステップ101からステップ105まで進んだ場合、オブジェクトの検出の維持が再び判定される。
フレーム画像12Tの後の30枚のフレーム画像12にて、所定のオブジェクトの検出が維持されたと判定された場合(ステップ105のYes)、その所定のオブジェクトが不審物55(注目オブジェクト55)として検出される(ステップ106)。従って図6に示すフレーム画像12Tから30枚目のフレーム画像12Hが、第1の時点の第1の画像として設定される。第1の時点は、フレーム画像12Hが撮影される時間であるので、図6に示すTから見るとT+30秒ということになる。
またステップ106に示すように、不審物55が置かれた第2の時点として、時刻T−tが算出される。フローチャートに示す時刻Tとは、30枚目のフレーム画像12Hが撮影された時刻であるので、時刻T−tは、フレーム画像12Hの撮影時刻から30秒を引いた時刻である。従って時刻T−tは、最初にオブジェクトの検出されたフレーム画像12Tが撮影された時刻(図6では時刻T+30−30=T)に相当する。この所定のオブジェクトが最初に検出されたフレーム画像12Tの撮影時刻が、第2の時点として算出される。
ステップ106のノイズ判定について説明する。所定のオブジェクトの検出の維持を判定するために、30枚のフレーム画像12に対してオブジェクト検出処理が実行される。この際に、オブジェクトと通行する人物とが重なる等により、オブジェクトが検出されない場合がある。このような場合をノイズとして判定して、オブジェクトの検出の維持の判定に関して無効とする。
ノイズの判定方法としては、例えばフレーム画像12の前後に隣接するフレーム画像12のオブジェクトの検出結果が用いられる。例えば前後に連続するフレーム画像12において、所定のオブジェクトが検出された場合、オブジェクトが検出されなかったフレーム画像12がノイズと判定される。前後に連続するフレーム画像12が用いられる場合に限定されない。またその他のノイズ判定が行われてもよい。
以上、図5に示すフローチャートに示す第2の時点の算出方法では、第1の時点よりも前の所定の時点のフレーム画像12から第1の時点の第1の画像までの1以上のフレーム画像において、所定のオブジェクトの検出が維持された場合に、所定のオブジェクトが注目オブジェクトとして検出される。上記のように、動画11の撮影と同時に注目オブジェクト55の検出を実行する場合等では、所定の時点が先に設定されて、オブジェクトの検出の維持が実現した時点が第1の時点として設定されてもよい。
そして、所定の時点が第2の時点として算出される。この際には、所定の時点のフレーム画像12から、第1の時点の第1の画像の直前までの1以上のフレーム画像12を1以上の第2の画像として設定されている。そして上記で説明した所定のオブジェクトの検出の維持が、第1の画像と1以上の第2の画像のそれぞれとの比較の結果として援用されている。すなわち第1の画像の直前までのフレーム画像12と、第1の画像としてのフレーム画像12とが、基準画像14を介して比較されていることになる。
本実施形態において、画像の比較とは、当該画像を直接比較する場合と、基準画像等の他の画像を介して間接的に比較する場合の両方を含むものとする。
上記のような処理により、動画11が撮影される際に、不審物55の検出と当該不審物55の出現時点である第2の時点の算出とをともに実行することができる。これにより演算量の軽減や処理時間の短縮を図ることが可能となる。
図7は、不審物55の検出及び不審物55の出現時刻の算出をもとに行われる警報表示等の処理例を示すフローチャートである。図8−図11は、その処理を説明するための図である。
ステップ201にて不審物55が検出されると、アラート(警報)が表示される(ステップ202)。例えば図8に示すクライアント装置30では、画面15内の複数の分割領域16に、複数のカメラ10でそれぞれ撮影された動画11が表示されている。このうちの1つの分割領域16aに、図3で説明した動画11が表示されているとする。図3のフレーム画像12Eに表示されている鞄50が、不審物55として検出されると、当該鞄50にアラート56が表示される。アラート表示のための画像やアラート56の表示方法等は限定されない。
ユーザによりアラート56を選択する操作が入力されたか否かが判定される。本実施形態では、画面15がタッチパネルとなっており操作入力部として機能する。従ってここでは、ユーザによりアラート56がタッチされたか否かが判定される(ステップ203)。
アラート56へのタッチ操作がないと判定された場合(ステップ203のNo)、図8に示す表示がそのまま維持される。アラートへのタッチ操作があると判定された場合(ステップ203のYes)、図9に示すようにアラート発生時の映像としてフレーム画像12Eが拡大表示され、不審物55である鞄50が強調されて表示される(ステップ204)。不審物55である鞄50を強調して表示するための画像等は限定されない。
不審物55へのタッチ操作が入力されたか否かが判定される(ステップ205)。不審物55へのタッチ操作がないと判定された場合(ステップ205のNo)、図9に示す拡大表示が維持される。不審物55へのタッチ操作があると判定された場合(ステップ205のYes)、不審物55が置かれた時刻(第2の時点)において、不審物55の近くにいる人物オブジェクトが検出される(ステップ206)。
典型的には、不審物55が置かれた時刻のフレーム画像12から当該人物オブジェクトが検出される。不審物55が置かれた時刻に近い前後のフレーム画像12から人物オブジェクトが検出されてもよい。この検出された人物オブジェクトの中から最も怪しい人物が容疑者58として設定される(ステップ207)。典型的には、不審物55である注目オブジェクト55から最も近い位置の人物オブジェクトが、容疑者58のオブジェクトとして設定される。その他、不審物55が置かれた時刻付近の複数のフレーム画像12において、最も長い時間表示されている人物が容疑者58として設定されてもよい。
図10に示すように、不審物55が置かれた時刻のフレーム画像12が表示されて、容疑者58として設定された人物オブジェクト57が強調表示される(ステップ208)。ここでは、1以上の第2の画像として、図3に示すフレーム画像12Cが選択されていないとする。そして不審物55が置かれた時刻のフレーム画像12として、図3に示すフレーム画像12Bが表示されるとする。
表示されたフレーム画像12Bには、容疑者58として設定された人物オブジェクト57の動きを表現する動き画像70が出力される(ステップ209)。動き画像70は、各フレーム画像12の人物オブジェクト57の位置情報等からなる追跡データをもとに生成されて表示される。動き画像70として用いられる画像は限定されない。本実施形態は、矢印71が付された動線72が動き画像70として表示される。
すなわち本実施形態では、注目オブジェクト55として不審物55が検出された場合、第2の時点の画像としてのフレーム画像12Bにおける、不審物55に最も近い位置の人物オブジェクト57の動き画像70が出力される。これにより例えば不審物55を運んだ人物等を検出することが可能となる。
容疑者58に対してドラッグ操作が入力されたか否かが判定される(ステップ210)。ドラッグ操作の入力がないと判定された場合(ステップ210のNo)、容疑者58に対してタップ操作が入力されたか否かが判定される(ステップ211)。容疑者58に対するタップ操作の入力がないと判定された場合(ステップ211のNo)、図10に示すフレーム画像12Bの表示が維持される。
容疑者58に対するタップ操作の入力があると判定された場合(ステップ211のYes)、容疑者58として設定された人物オブジェクト57を選択する指示が入力されたと判定される。そして、選択された容疑者58のオブジェクト57の情報が出力される(ステップ212)。人物オブジェクト57の情報は、記憶部208から読み出されて出力される。これにより不審物55と関係する可能性が高い人物の情報を簡単に取得することができる。
図11は、人物オブジェクト57の情報が出力された画像の一例を示す図である。図11に示すように、例えば画面15の所定の領域17に、人物オブジェクト57の情報が出力される。人物オブジェクト57(容疑者58)の情報としては、例えば容疑者58の顔写真60、プロフィールを示すテキストデータ61や、容疑者58の現在いる位置を示す地図情報62や、容疑者58が現在映っている映像63等が挙げられる。図11に示す例では、容疑者58は現在オフィスにいることが検出されている。当該オフィルに設定されたカメラの画像が、映像63として表示されている。人物オブジェクト57の情報として他の情報が適宜表示されてもよい。
図10に示すフレーム画像12Bに対して、容疑者58へのドラッグ操作の入力があると判定された場合(ステップ210のYes)、動き画像70である動線72上において、ドラッグ先の指の位置と最も近い位置が算出される(ステップ213)。算出された動線72上の位置に対応するフレーム画像12が出力されて表示される。
動き画像70上の位置と複数のフレーム画像12との対応付けとしては、動線72上の位置と容疑者58の位置との距離と、時間的な距離とを対応付けが考えられる。容疑者58から離れた位置であれば、過去又は未来において時間的に離れているフレーム画像12が表示される。この場合は、動線72は単純にシーキングバーとして用いられる。
例えば図10に示すフレーム画像12Bにおいて、矢印の反対方向である左側にドラッグ操作が入力されたとする。そうするとフレーム画像12Bの時刻よりも過去の時刻の、図3に示すフレーム画像12A等のフレーム画像12が表示される。逆に矢印の方向である右側にドラッグ操作が入力されたとする。そうするとフレーム画像12Bの時刻よりも未来の時刻の、図3に示すフレーム画像12C−12E等のフレーム画像12が表示される。少し右側にドラッグ操作すると、図3に示す人物オブジェクト57が鞄50を置く瞬間のフレーム画像12Cを確認することが可能となる。
あるいは、動線72上の位置と、当該位置の近くを容疑者58が通る時刻のフレーム画像12とが対応付けられてもよい。この場合、容疑者58が動線72上の所定の位置にいる時刻のフレーム画像12を、当該所定の位置までドラッグ操作を実行することで表示させることが可能となる。図7のステップ214では、このような対応付けをもとにフレーム画像12が表示され、また容疑者58が強調表示される。
このような対応付けが記憶されることにより、例えば動き画像70上への操作を入力することで、所定の時点のフレーム画像12を直感的に分りやすく表示させること等が可能となる。この結果、フレーム画像12のシーキングを簡単に実行することができる。
上記の各実施形態においてクライアント装置30及びサーバ装置20としては、例えばPC(Personal Computer)等の種々のコンピュータが用いられる。図12は、そのようなコンピュータの構成例を示す模式的なブロック図である。
コンピュータ200は、CPU(Central Processing Unit)201、ROM(Read Only Memory)202、RAM(Random Access Memory)203、入出力インタフェース205、及び、これらを互いに接続するバス204を備える。
入出力インタフェース205には、表示部206、入力部207、記憶部208、通信部209、ドライブ部210等が接続される。
表示部206は、例えば液晶、EL(Electro-Luminescence)、CRT(Cathode Ray Tube)等を用いた表示デバイスである。
入力部207は、例えばコントローラ、ポインティングデバイス、キーボード、タッチパネル、その他の操作装置である。入力部207がタッチパネルを含む場合、そのタッチパネルは表示部206と一体となり得る。
記憶部208は、不揮発性の記憶デバイスであり、例えばHDD(Hard Disk Drive)、フラッシュメモリ、その他の固体メモリである。
ドライブ部210は、例えば光学記録媒体、フロッピー(登録商標)ディスク、磁気記録テープ、フラッシュメモリ等、リムーバブルの記録媒体211を駆動することが可能なデバイスである。これに対し上記記憶部208は、主にリムーバブルでない記録媒体を駆動する、コンピュータ200に予め搭載されたデバイスとして使用される場合が多い。
通信部209は、LAN、WAN(Wide Area Network)等に接続可能な、他のデバイスと通信するためのモデム、ルータ、その他の通信機器である。通信部209は、有線及び無線のどちらを利用して通信するものであってもよい。通信部209は、コンピュータ200とは別体で使用される場合が多い。
上記のようなハードウェア構成を有するコンピュータ200による情報処理は、記憶部208またはROM202等に記憶されたソフトウェアと、コンピュータ200のハードウェア資源との協働により実現される。具体的には、CPU201が記憶部208またはROM202等に記憶された、ソフトウェアを構成するプログラムをRAM203にロードして実行することにより実現される。例えばCPU201が所定のプログラムを実行することで図1に示す各ブロックが実現される。
プログラムは、例えば記録媒体を介してコンピュータ200にインストールされる。あるいは、グローバルネットワーク等を介してプログラムがコンピュータ200にインストールされてもよい。
また、コンピュータ200が実行するプログラムは、上記で説明した順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
<変形例>
本技術に係る実施形態は、上記で説明した実施形態に限定されず種々変形される。
上記では、第1の時点の第1の画像と、第1の時点よりも前の時点の1以上の第2の画像のそれぞれとが比較されることで、第2の時点が算出された。これに代えて、第1の画像の少なくとも注目オブジェクトを含む領域の画像である第1の領域画像と、1以上の第2の画像のそれぞれの第1の領域画像に対応する領域の画像である1以上の第2の領域画像とが比較されることで、第2の時点が算出されてもよい。
例えば図3に示すフレーム画像12E等で、鞄50を含む領域が指定された場合に、当該少なくとも鞄50を含む領域の画像が第1の領域画像として設定される。すなわちフレーム画像の部分的な部分画像が第1の領域画像として設定される。第1の領域画像の大きさは、例えばユーザの指示により定められる。又は注目オブジェクトを含む所定の大きさが適宜算出されて定められてもよい。
そして第1の領域画像と同じ位置及び大きさの領域の画像が、以上の第2の領域画像として設定される。これらが第1及び第2の領域画像が比較されて第2の時点が算出されてもよい。すなわち第1及び第2の画像の部分画像をもとに第2の時点が算出されてもよい。
例えば鞄50を含む領域の第1の領域画像が、過去の第2の領域画像と比較されることで、当該領域に鞄50が出現した時点としての第2の時点が算出される。これによりユーザが注目したいオブジェクトの出現時点を算出することが可能となる。例えば注目オブジェクト55として検出されなかったオブジェクトに対しても出現時点を算出するといった処理が可能となる。
上記では、注目オブジェクトとして不審物が検出された場合に、不審物に最も近い位置の人物オブジェクトに関する動き画像が出力された。しかしながら、不審物として設定された注目オブジェクトの追跡データをもとに、注目オブジェクトに関する動き画像が出力されてもよい。これにより不審物が出現する時点の前後における不審物の動きを明確に把握することが可能となる。
一方、人物オブジェクトのみを対象として追跡データを取得することで、演算量の軽減や処理時間の短縮を図ることができる。
その他、本技術に係る監視カメラシステムとして、以下のような処理が可能である。以下の処理では、カメラからの監視画像(リアルタイム画像やプレイバック画像等を含む)の上に所定のUI(User Interface)がオーバーレイされる。これにより直感的な操作が可能となっている。
例えば図13に示す画面15には、番号が付された複数のカメラ10で撮影された映像と、複数のカメラ10と人物オブジェクト80との位置関係を示すUI81が表示される。例えば画像82内のドア83にはセキュリティが設定されており、人物80のアクセスが拒否されたとする。この場合、ドア83の前の人物80を映す画像82が大きく表示される。そしてドア83の前まで進行する人物80の過去の履歴画像84が画面15の左端の領域に表示される。履歴画像84は、ドア83へと続く廊下85に設置されたカメラ10により撮影される。その撮影時間をもとに、人物80の動きを把握することが可能となる。
複数のカメラ10と人物80との位置関係を示すUI81では、人物80の動きを表現する動き画像86が表示されている。またUI81内では番号24のカメラ10Aに色が付されているが、これはこのカメラ10Aが画像82を撮影しているカメラであることを示している。画像82内におけるカメラ10の番号が表示された、半円形のUI87を操作することで、カメラ10の切り替え処理を直感的に実行することが可能となる。
例えば人物80を撮影する複数のカメラ10をインタラクティブに切り替えながら、人物80のアクセス認証の確認や、過去の画像を用いた履歴検索等を実行することが可能となる。
また図14に示すように、ドア83に所定のUI88がオーバーレイされる。例えば人物がドア83に近づいた場合等において、このUI88が表示される。ユーザは、認証等に問題がない場合に、UI88、すなわちドア83をタッチするだけで、ドア83の開閉を制御することができる。この結果、直感的な操作が可能となる。
図15は、容疑者が検出された場合の画像を示す図である。例えば監視画像から検出された人物オブジェクトと、予め記憶されている容疑者の情報とが照合される。その結果、照合率が所定の値よりも大きい場合、当該人物が容疑者として判定される。この場合、容疑者を表わすUI90と、それを捕らえようとする警備員のUI91とが表示される。容疑者のUI90がタッチされると、容疑者の顔写真、名前、年齢及び容疑等の情報が容疑者情報92として表示される。警備員のUI91がタッチされると、近くにいる警備員の顔写真や名前等の警備員情報93が表示される。また当該警備員への通信が開始される。これにより近くにいる警備員と迅速かつ容易に連絡を取ることが可能となり、容疑者を捕らえることが可能となる。
図16では、複数の人物オブジェクト95のうち所定の人物が目標人物95Aとして強調表示されている。そして他の関係ない人物95Bが透明に透けるようにして表示されている。これによい目標人物95Aを容易に確認することができる。また他の人物95Bのプライバシーを保護することが可能となる。例えばモザイク等を利用する場合、画面が汚くなり見にくくなることが多い。図に示すよに、他の人物95Bを透明人間のように表示することで、人の特定ができない、かつ綺麗な監視画像を表示することが可能となる。例えば人物が映っていない画像を利用して適宜画像を補正し、輪郭線やフィルターを使うことで、人物の透明表示が可能となる。他の方法が用いられてもよい。
図12−図15に示すように、UIがオーバーレイされることで、監視画像とUIとの関連性を容易に把握することが可能となる。また視線移動の付加を軽減することができる。なお、監視画像を解析した結果に基づいてUIが動的に構成されてもよい。
上記では不審物の例として鞄を挙げたが、その他の物が不審物として検出されてもよい。また人等の足跡が不審物として検出されてもよい。そして足跡が付けられた時点が第2の時点として算出され、その時点の画像をもとに足跡の主が割り出されてもよい。
上記では、クライアント装置とサーバ装置とがネットワークで接続され、またサーバ装置と複数のカメラとがネットワークで接続されていた。しかしながら各装置を接続するためにネットワークが用いられなくてもよい。すなわち各装置の接続方法は限定されない。また上記ではクライアント装置とサーバ装置とが別体の装置として配置された。しかしながらクライアント装置とサーバ装置とが一体的に構成されて、本技術の一実施形態に係る情報処理装置として用いられてもよい。複数の撮像装置も含めて本技術の一実施形態に係る情報処理装置が構成されてもよい。
上記で説明した本技術に係る画像の切り替え処理等が、監視カメラシステム以外の他の情報処理システムに用いられてもよい。
以上説明した各形態の特徴部分のうち、少なくとも2つの特徴部分を組み合わせることも可能である。
なお、本技術は以下のような構成も採ることができる。
(1)撮像装置により撮影された時間的に連続する複数の画像を入力する入力部と、
前記入力された複数の画像のうちの第1の時点の画像である第1の画像から注目対象となる注目対象オブジェクトを検出する注目オブジェクト検出部と、
前記第1の画像と、前記第1の時点よりも前の時点の1以上の画像である1以上の第2の画像のそれぞれとを比較することで、前記連続する複数の画像における前記注目オブジェクトの出現時点を第2の時点として算出する算出部と
を具備する情報処理装置。
(2)(1)に記載の情報処理装置であって、
前記注目オブジェクト検出部は、前記第1の時点よりも前の所定の時点の画像から前記第1の画像までの1以上の画像において、所定のオブジェクトの検出が維持された場合、前記所定のオブジェクトを前記注目オブジェクトとして検出し、
前記算出部は、前記所定の時点の画像から前記第1の画像の直前までの1以上の画像を前記1以上の第2の画像として、前記所定のオブジェクトの検出の維持を前記比較の結果として援用することで、前記所定の時点を前記第2の時点として算出する
情報処理装置。
(3)(2)に記載の情報処理装置であって、
前記時間的に連続する複数の画像は、所定の撮影空間が撮影された画像であり、
前記情報処理装置は、前記所定の撮影空間の基準状態を撮影した画像である基準画像と、前記複数の画像のそれぞれとの差分を検出可能な差分検出部をさらに具備し、
前記注目オブジェクト検出部は、前記差分検出部により検出された前記基準画像との差分をもとに、前記所定のオブジェクトの検出の維持を判定する
情報処理装置。
(4)(1)から(3)のうちいずれか1つに記載の情報処理装置であって、さらに、
前記検出された注目オブジェクトの動きを検出して当該動きを表現する動き画像を出力することが可能な動き画像出力部を具備する
情報処理装置。
(5)(4)に記載の情報処理装置であって、
前記複数の画像から人物のオブジェクトを検出することが可能な人物オブジェクト検出部をさらに具備し、
前記動き画像出力部は、前記第2の時点の画像における前記注目オブジェクトに最も近い位置の前記人物オブジェクトの動き画像を出力する
情報処理装置。
(6)(5)に記載の情報処理装置であって、さらに、
前記検出された人物オブジェクトの情報を記憶する第1の記憶部と、
前記注目オブジェクトに最も近い位置の前記人物オブジェクトを選択する指示に応じて、当該選択された人物オブジェクトの情報を出力する人物情報出力部と
を具備する情報処理装置。
(7)(4)から(6)のうちいずれか1つに記載の情報処理装置であって、さらに、
前記動き画像上の位置と前記複数の画像との対応付けを記憶する第2の記憶部と、
前記動き画像上の所定の位置を選択する指示に応じて、前記複数の画像から前記選択された所定の位置に対応付けられた画像を出力する対応画像出力部と
を具備する情報処理装置。
(8)(1)から(7)のうちいずれか1つに記載の情報処理装置であって、
前記算出部は、前記第1の画像の少なくとも前記注目オブジェクトを含む領域の画像である第1の領域画像と、前記1以上の第2の画像のそれぞれの前記第1の領域画像に対応する領域の画像である1以上の第2の領域画像とを比較することで、前記第2の時点を算出する
情報処理装置。
10…カメラ
11…動画データ
12…フレーム画像
14…基準画像
20…サーバ装置
23…画像解析部
24…データ管理部
30…クライアント装置
55…注目オブジェクト
57…人物オブジェクト
70…動き画像
100…監視カメラシステム
200…コンピュータ

Claims (13)

  1. 撮像装置により撮影された時間的に連続する複数の画像を入力する入力部と、
    前記入力された複数の画像のうちの第1の時点の画像である第1の画像から注目対象となる注目オブジェクトを検出する注目オブジェクト検出部と、
    記第1の時点よりも前の時点の1以上の画像である1以上の第2の画像の各々について、前記注目オブジェクト検出部により検出された前記注目オブジェクトが検出されるか否かを判定し、その判定結果をもとに、前記連続する複数の画像における前記注目オブジェクトの出現時点を第2の時点として算出する算出部と
    前記連続する複数の画像から人物オブジェクトを検出することが可能な人物オブジェクト検出部と、
    前記注目オブジェクト検出部により検出された前記注目オブジェクトの動きを検出して当該動きを表現する第1の動き画像を出力し、前記人物オブジェクト検出部により検出された前記第2の時点の画像における前記注目オブジェクトに最も近い位置の前記人物オブジェクトの動きを検出して当該動きを表現する第2の動き画像を出力することが可能な動き画像出力部と
    を具備する情報処理装置。
  2. 請求項1に記載の情報処理装置であって、
    前記動き画像出力部は、前記第1及び前記第2の動き画像を同時に出力する
    情報処理装置。
  3. 請求項1又は2に記載の情報処理装置であって、
    前記算出部は、前記第1の画像と前記1以上の第2の画像のそれぞれとを比較することで、前記第2の時点を算出する
    情報処理装置。
  4. 請求項1又は2に記載の情報処理装置であって、
    前記注目オブジェクト検出部は、前記第1の時点よりも前の所定の時点の画像から前記第1の画像までの1以上の画像において、所定のオブジェクトの検出が維持されたか否かを判定し、前記所定のオブジェクトの検出が維持されたと判定した場合、前記所定のオブジェクトを前記注目オブジェクトとして検出し、
    前記算出部は、前記注目オブジェクト検出部により前記所定のオブジェクトの検出が維持されたと判定された場合、前記所定の時点を前記第2の時点として算出する
    情報処理装置。
  5. 請求項に記載の情報処理装置であって、
    前記時間的に連続する複数の画像は、所定の撮影空間が撮影された画像であり、
    前記情報処理装置は、前記所定の撮影空間の基準状態を撮影した画像である基準画像と、前記複数の画像のそれぞれとの差分を検出可能な差分検出部をさらに具備し、
    前記注目オブジェクト検出部は、前記差分検出部により検出された前記基準画像と前記所定の時点の画像から前記第1の画像までの1以上の画像の各々との差分をもとに、前記所定のオブジェクトの検出の維持を判定する
    情報処理装置。
  6. 請求項1又は2に記載の情報処理装置であって、さらに、
    前記検出された人物オブジェクトの情報を記憶する第1の記憶部と、
    前記注目オブジェクトに最も近い位置の前記人物オブジェクトを選択する指示に応じて、当該選択された人物オブジェクトの情報を出力する人物情報出力部と
    を具備する情報処理装置。
  7. 請求項6に記載の情報処理装置であって、
    前記第1の記憶部は、所定の容疑者の情報である容疑者情報を記憶し、
    前記人物情報出力部は、前記注目オブジェクトに最も近い位置の前記人物オブジェクトの情報を、前記第1の記憶部に記憶された前記容疑者情報と照合し、その照合の結果を出力する
    情報処理装置。
  8. 請求項6又は7に記載の情報処理装置であって、
    前記人物情報出力部は、前記人物オブジェクト検出部により複数の人物オブジェクトが検出された場合、前記複数の人物オブジェクトのうち前記注目オブジェクトに最も近い位置の前記人物オブジェクトを目標人物として強調表示し、かつ、他の前記人物オブジェクトを透明表示する
    情報処理装置。
  9. 請求項1又は2に記載の情報処理装置であって、さらに、
    前記第1及び前記第2の動き画像のうち少なくとも1つの動き画像について、前記動き画像上の位置と前記複数の画像との対応付けを記憶する第2の記憶部と、
    前記動き画像上の所定の位置を選択する指示に応じて、前記複数の画像から前記選択された所定の位置に対応付けられた画像を出力する対応画像出力部と
    を具備する情報処理装置。
  10. 請求項1又は2に記載の情報処理装置であって、
    前記算出部は、前記第1の画像の少なくとも前記注目オブジェクトを含む領域の画像第1の領域画像として設定し、前記1以上の第2の画像のそれぞれの前記第1の領域画像に対応する領域の画像である1以上の第2の領域画像の各々について、前記注目オブジェクト検出部により検出された前記注目オブジェクトが検出されるか否かを判定することで、前記第2の時点を算出する
    情報処理装置。
  11. 撮像装置により撮影された時間的に連続する複数の画像を入力し、
    前記入力された複数の画像のうちの第1の時点の画像である第1の画像から注目対象となる注目オブジェクトを検出し、
    前記第1の時点よりも前の時点の1以上の画像である1以上の第2の画像の各々について、前記検出された前記注目オブジェクトが検出されるか否かを判定し、その判定結果をもとに、前記連続する複数の画像における前記注目オブジェクトの出現時点を第2の時点として算出し、
    前記連続する複数の画像から人物オブジェクトを検出し、
    前記検出された前記注目オブジェクトの動きを検出して当該動きを表現する第1の動き画像を出力し、前記検出された前記第2の時点の画像における前記注目オブジェクトに最も近い位置の前記人物オブジェクトの動きを検出して当該動きを表現する第2の動き画像を出力する
    ことをコンピュータが実行する情報処理方法。
  12. 撮像装置により撮影された時間的に連続する複数の画像を入力するステップと、
    前記入力された複数の画像のうちの第1の時点の画像である第1の画像から注目対象となる注目オブジェクトを検出するステップと、
    前記第1の時点よりも前の時点の1以上の画像である1以上の第2の画像の各々について、前記検出された前記注目オブジェクトが検出されるか否かを判定し、その判定結果をもとに、前記連続する複数の画像における前記注目オブジェクトの出現時点を第2の時点として算出するステップと、
    前記連続する複数の画像から人物オブジェクトを検出するステップと、
    前記検出された前記注目オブジェクトの動きを検出して当該動きを表現する第1の動き画像を出力し、前記検出された前記第2の時点の画像における前記注目オブジェクトに最も近い位置の前記人物オブジェクトの動きを検出して当該動きを表現する第2の動き画像を出力するステップと
    をコンピュータに実行させるプログラム。
  13. 時間的に連続する複数の画像を撮影可能な1以上の撮像装置と、
    前記撮像装置により撮影された連続する複数の画像を入力する入力部と、
    前記入力された複数の画像のうちの第1の時点の画像である第1の画像から注目対象となる注目オブジェクトを検出する注目オブジェクト検出部と、
    記第1の時点よりも前の時点の1以上の画像である1以上の第2の画像の各々について、前記注目オブジェクト検出部により検出された前記注目オブジェクトが検出されるか否かを判定し、その判定結果をもとに、前記連続する複数の画像における前記注目オブジェクトの出現時点を第2の時点として算出する算出部と
    前記連続する複数の画像から人物オブジェクトを検出することが可能な人物オブジェクト検出部と、
    前記注目オブジェクト検出部により検出された前記注目オブジェクトの動きを検出して当該動きを表現する第1の動き画像を出力し、前記人物オブジェクト検出部により検出された前記第2の時点の画像における前記注目オブジェクトに最も近い位置の前記人物オブジェクトの動きを検出して当該動きを表現する第2の動き画像を出力することが可能な動き画像出力部と
    を有する情報処理装置と
    を具備する情報処理システム。
JP2012232791A 2012-10-22 2012-10-22 情報処理装置、情報処理方法、プログラム、及び情報処理システム Active JP5954106B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2012232791A JP5954106B2 (ja) 2012-10-22 2012-10-22 情報処理装置、情報処理方法、プログラム、及び情報処理システム
US14/043,205 US9298987B2 (en) 2012-10-22 2013-10-01 Information processing apparatus, information processing method, program, and information processing system
CN201310481779.9A CN103780872B (zh) 2012-10-22 2013-10-15 信息处理设备、信息处理方法和信息处理***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012232791A JP5954106B2 (ja) 2012-10-22 2012-10-22 情報処理装置、情報処理方法、プログラム、及び情報処理システム

Publications (2)

Publication Number Publication Date
JP2014086797A JP2014086797A (ja) 2014-05-12
JP5954106B2 true JP5954106B2 (ja) 2016-07-20

Family

ID=50485369

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012232791A Active JP5954106B2 (ja) 2012-10-22 2012-10-22 情報処理装置、情報処理方法、プログラム、及び情報処理システム

Country Status (3)

Country Link
US (1) US9298987B2 (ja)
JP (1) JP5954106B2 (ja)
CN (1) CN103780872B (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5980604B2 (ja) * 2012-07-18 2016-08-31 オリンパス株式会社 内視鏡システム
US9460340B2 (en) * 2014-01-31 2016-10-04 Google Inc. Self-initiated change of appearance for subjects in video and images
JP6639091B2 (ja) 2015-02-12 2020-02-05 キヤノン株式会社 表示制御装置及び表示制御方法
JP2016207167A (ja) * 2015-04-28 2016-12-08 株式会社Jvcケンウッド 情報処理システム、情報処理方法およびプログラム
US20180225523A1 (en) * 2015-05-05 2018-08-09 Dean Drako 3D Event Sequence Capture and Image Transform Apparatus and Method for Operation
CN106027931B (zh) * 2016-04-14 2018-03-16 平安科技(深圳)有限公司 视频录制方法及服务器
US10438465B1 (en) * 2017-03-28 2019-10-08 Alarm.Com Incorporated Camera enhanced with light detecting sensor
JP6729793B2 (ja) * 2017-03-30 2020-07-22 日本電気株式会社 情報処理装置、制御方法、及びプログラム
JP6954416B2 (ja) * 2017-03-30 2021-10-27 日本電気株式会社 情報処理装置、情報処理方法、及びプログラム
SG11201908010YA (en) 2017-04-28 2019-09-27 Hitachi Int Electric Inc Image monitoring system
US11132553B2 (en) * 2017-07-21 2021-09-28 Sony Corporation Information processing apparatus and information processing method
JP6805996B2 (ja) * 2017-07-28 2020-12-23 トヨタ自動車株式会社 情報処理装置、情報処理方法及び情報処理システム
CN109086693B (zh) * 2018-07-16 2021-07-30 安徽国通亿创科技股份有限公司 一种在线教学学习注意力的检测技术
DE102019134813A1 (de) * 2019-12-17 2021-06-17 G2K Group GmbH Ereignis-Überwachung in einem räumlichen Bereich

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007228337A (ja) * 2006-02-24 2007-09-06 Olympus Corp 画像撮影装置
JP4933354B2 (ja) * 2007-06-08 2012-05-16 キヤノン株式会社 情報処理装置、及び情報処理方法
JP4507129B2 (ja) * 2008-06-06 2010-07-21 ソニー株式会社 追尾点検出装置および方法、プログラム、並びに記録媒体
CN101727672A (zh) * 2008-10-24 2010-06-09 云南正卓信息技术有限公司 一种物体滞留/偷窃事件的检测、跟踪、识别方法
CN101552910B (zh) * 2009-03-30 2011-04-06 浙江工业大学 基于全方位计算机视觉的遗留物检测装置
JP5203281B2 (ja) * 2009-03-31 2013-06-05 綜合警備保障株式会社 人物検出装置、人物検出方法、及び人物検出プログラム
JP5203319B2 (ja) * 2009-08-25 2013-06-05 セコム株式会社 置き去り監視装置
JP2013074461A (ja) * 2011-09-28 2013-04-22 Casio Comput Co Ltd 画像処理装置、画像処理方法及びプログラム
LT2858269T (lt) * 2012-05-24 2018-05-10 Panasonic Intellectual Property Corporation Of America Informacinio ryšio būdas
US9252878B2 (en) * 2012-12-27 2016-02-02 Panasonic Intellectual Property Corporation Of America Information communication method

Also Published As

Publication number Publication date
US20140112533A1 (en) 2014-04-24
US9298987B2 (en) 2016-03-29
CN103780872A (zh) 2014-05-07
CN103780872B (zh) 2018-06-05
JP2014086797A (ja) 2014-05-12

Similar Documents

Publication Publication Date Title
JP5954106B2 (ja) 情報処理装置、情報処理方法、プログラム、及び情報処理システム
JP6171374B2 (ja) 情報処理装置、情報処理方法、プログラム、及び情報処理システム
US10116905B2 (en) System and method of virtual zone based camera parameter updates in video surveillance systems
US10719946B2 (en) Information processing apparatus, method thereof, and computer-readable storage medium
WO2014021004A1 (ja) 画像処理システム、画像処理方法、及びプログラム
JP6229816B2 (ja) モバイル監視装置、プログラム、及び制御方法
JP6233624B2 (ja) 情報処理システム、情報処理方法及びプログラム
JP6210234B2 (ja) 画像処理システム、画像処理方法及びプログラム
JP2019186955A (ja) 情報処理システム、情報処理方法及びプログラム
JP5555044B2 (ja) カメラ制御装置及びカメラシステム
JP6299602B2 (ja) 情報処理装置、情報処理方法、プログラム、及び情報処理システム
JP2017168885A (ja) 撮像制御装置及びカメラ
JP6806626B2 (ja) 人物グループ追跡装置および人物グループ追跡方法
JP2005277726A (ja) 画像監視装置
US10935796B2 (en) Sensor data conveyance
JP2014170367A (ja) 物体検出装置、物体検出方法、物体検出システム及びプログラム
JP7276576B2 (ja) カメラ端末、情報処理方法、及びプログラム
JP6515975B2 (ja) モバイル監視装置、モバイル監視システム、プログラム、及び制御方法
JP6268496B2 (ja) 警備システム及び画像表示方法
JP2016220148A (ja) 制御装置、制御方法、システム
JP2019164802A (ja) モバイル監視装置、制御方法、及びプログラム
JP2020102676A (ja) 情報処理装置、情報処理方法およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150224

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160517

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160530

R151 Written notification of patent or utility model registration

Ref document number: 5954106

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250