JP4464360B2 - 監視装置、監視方法、及びプログラム - Google Patents

監視装置、監視方法、及びプログラム Download PDF

Info

Publication number
JP4464360B2
JP4464360B2 JP2006085709A JP2006085709A JP4464360B2 JP 4464360 B2 JP4464360 B2 JP 4464360B2 JP 2006085709 A JP2006085709 A JP 2006085709A JP 2006085709 A JP2006085709 A JP 2006085709A JP 4464360 B2 JP4464360 B2 JP 4464360B2
Authority
JP
Japan
Prior art keywords
unit
image
imaging
region
monitoring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006085709A
Other languages
English (en)
Other versions
JP2007266713A (ja
JP2007266713A5 (ja
Inventor
雅彦 杉本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2006085709A priority Critical patent/JP4464360B2/ja
Priority to US11/723,659 priority patent/US20070222858A1/en
Publication of JP2007266713A publication Critical patent/JP2007266713A/ja
Publication of JP2007266713A5 publication Critical patent/JP2007266713A5/ja
Application granted granted Critical
Publication of JP4464360B2 publication Critical patent/JP4464360B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Burglar Alarm Systems (AREA)
  • Alarm Systems (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Description

本発明は、監視システム、監視方法、及びプログラムに関する。特に本発明は、監視領域の動画を撮像する監視システム及び監視方法、並びに、監視システム用のプログラムに関する。
撮影対象の平常時の状態を基準画像として記憶しておき、撮影画像と基準画像を対応する画素毎に比較し、比較処理の結果、撮影画像に変化が生じていることが確認されたら、画像圧縮処理における圧縮比率を相対的に低く設定して記録媒体に記録し、撮影画像に変化が生じていないことが確認されたら、画像圧縮処理における圧縮比率を相対的に高く設定して記録媒体に記録する防犯システムが知られている(例えば、特許文献1参照。)。
特開2002−335492号公報
特許文献1に記載された防犯システムのように、撮影画像に基づく防犯システムにおいては、撮影対象の範囲を拡大するにつれて撮影画像の解像度が低下し、撮影画像の解像度が低下するにつれて、例えば撮影画像に写った人物が不審人物であるか否かを特定しにくくなってしまう。一方で、高解像度の撮影装置を使用すると、防犯システムのコスト高をまねいてしまう。
そこで本発明は、上記の課題を解決することができる監視システム、監視方法、及びプログラムを提供することを目的とする。この目的は特許請求の範囲における独立項に記載の特徴の組み合わせにより達成される。また従属項は本発明の更なる有利な具体例を規定する。
本発明の第1の形態における監視システムは、第1監視領域の動画を撮像する第1撮像部と、第1撮像部による第1監視領域の撮像動作に同期して、第1監視領域に隣接する第2監視領域の動画を撮像する第2撮像部と、第1撮像部の撮像条件と第2撮像部の撮像条件とを一致させる撮像制御部と、第1撮像部が撮像する第1監視領域と、第2撮像部が撮像する第2監視領域との相対的な位置関係に基づいて、撮像制御部によって制御された同一の撮像条件で第1撮像部及び第2撮像部がそれぞれ撮像した動画を構成する第1フレーム画像及び第2フレーム画像の合成位置を調整して合成画像を生成する合成画像生成部と、合成画像生成部が生成した合成画像を、第1監視領域及び第2監視領域の少なくとも一部を含む部分監視領域の動画を構成するフレーム画像として格納する動画格納部とを備える。
第1撮像部及び第2撮像部がそれぞれ撮像した動画に基づいて、第1監視領域及び第2監視領域を含む全体監視領域の中の特徴領域を特定する特徴領域特定部と、特徴領域特定部が特定した特徴領域の画像に基づいて、第1撮像部及び第2撮像部の撮像条件を決定する撮像条件決定部とをさらに備え、撮像制御部は、撮像条件決定部が決定した撮像条件で第1撮像部及び第2撮像部に動画を撮像させてよい。
特徴領域特定部は、第1撮像部及び第2撮像部がそれぞれ撮像した動画に基づいて、動きがある領域である動き領域を特徴領域として特定し、撮像条件決定部は、特徴領域特定部が特定した動き領域が含まれる第1撮像部が第1監視領域が撮像した第1フレーム画像に基づいて、第1撮像部及び第2撮像部の露出条件を決定し、撮像制御部は、撮像条件決定部が決定した露出条件で第1撮像部及び第2撮像部に動画を撮像させてよい。
特徴領域特定部は、全体監視領域に複数の動き領域が存在する場合には、動きが最も大きい動き領域を特定し、撮像条件決定部は、特徴領域特定部が特定した動き領域が含まれる第1撮像部が第1監視領域が撮像した第1フレーム画像に基づいて、第1撮像部及び第2撮像部の露出条件を決定し、撮像制御部は、撮像条件決定部が決定した露出条件で第1撮像部及び第2撮像部に動画を撮像させてよい。
特徴領域特定部は、第1撮像部及び第2撮像部がそれぞれ撮像した動画に基づいて、人物が存在する領域である人物領域を特徴領域として特定し、撮像条件決定部は、特徴領域特定部が特定した人物領域が含まれる第1撮像部が第1監視領域が撮像した第1フレーム画像に基づいて、第1撮像部及び第2撮像部の露出条件を決定し、撮像制御部は、撮像条件決定部が決定した露出条件で第1撮像部及び第2撮像部に動画を撮像させてよい。
特徴領域特定部は、全体監視領域に複数の人物領域が存在する場合には、全体監視領域に対する人物の面積が最も大きい人物領域を特定し、撮像条件決定部は、特徴領域特定部が特定した人物領域が含まれる第1撮像部が第1監視領域が撮像した第1フレーム画像に基づいて、第1撮像部及び第2撮像部の露出条件を決定し、撮像制御部は、撮像条件決定部が決定した露出条件で第1撮像部及び第2撮像部に動画を撮像させてよい。
第1撮像部及び第2撮像部がそれぞれ撮像した動画に基づいて、全体監視領域の中の人物の顔の領域である顔領域を抽出する顔領域抽出部と、顔領域抽出部が抽出した顔領域の明るさを判断する顔領域明るさ判断部とをさらに備え、特徴領域特定部は、全体監視領域に複数の人物領域が存在する場合には、顔領域明るさ判断部が判断した明るさが予め定められた範囲内の明るさである人物の人物領域を特定し、撮像条件決定部は、特徴領域特定部が特定した人物領域が含まれる第1撮像部が撮像した第1フレーム画像に基づいて、第1撮像部及び第2撮像部の露出条件を決定し、撮像制御部は、撮像条件決定部が決定した露出条件で第1撮像部及び第2撮像部に動画を撮像させてよい。
合成画像生成部が生成した合成画像を、第1撮像部又は第2撮像部が撮像する第1フレーム画像又は第2フレーム画像と同一のアスペクト比にトリミングして部分監視領域画像を抽出するトリミング部をさらに備え、動画格納部は、トリミング部が抽出した部分監視領域画像を部分監視領域の動画を構成するフレーム画像として格納してよい。
合成画像生成部が生成した合成画像を、外部の画像再生装置が再生する動画を構成するフレーム画像と同一のアスペクト比にトリミングして部分監視領域画像を抽出するトリミング部をさらに備え、動画格納部は、トリミング部が抽出した部分監視領域画像を部分監視領域の動画を構成するフレーム画像として格納してよい。
トリミング部が抽出した複数の部分監視領域画像を、動画を構成するフレーム画像として動画圧縮する動画圧縮部をさらに備え、動画格納部は、動画圧縮部が圧縮した複数の部分監視領域画像を部分監視領域の動画を構成するフレーム画像として格納してよい。
第1撮像部が有する複数の受光素子から読み出された第1フレーム画像と、第2撮像部が有する複数の受光素子から読み出された第2フレーム画像とに交互に画像処理を施してメモリに格納する画像処理部をさらに備えてよい。
画像処理部は、第1撮像部が有する複数の受光素子から読み出された第1フレーム画像と、第2撮像部が有する複数の受光素子から読み出された第2フレーム画像とを交互にデジタルデータに変換するAD変換部を有し、合成画像生成部は、AD変換部によってデジタルデータに変換された第1フレーム画像と、AD変換部によってデジタルデータに変換された第2フレーム画像との合成位置を調整して合成画像を生成してよい。
画像処理部は、第1撮像部が有する複数の受光素子から読み出された第1フレーム画像の画像データと、第2撮像部が有する複数の受光素子から読み出された第2フレーム画像の画像データとを交互に表示用画像データに変換する画像データ変換部を有し、合成画像生成部は、画像データ変換部によって表示用画像データに変換された第1フレーム画像と、画像データ変換部によって表示用画像データに変換された第2フレーム画像との合成位置を調整して合成画像を生成してよい。
本発明の第2の形態における監視方法は、第1監視領域の動画を撮像する第1撮像段階と、第1撮像段階による第1監視領域の撮像動作に同期して、第1監視領域に隣接する第2監視領域の動画を撮像する第2撮像段階と、第1撮像段階における撮像条件と第2撮像段階における撮像条件とを一致させる撮像制御段階と、第1撮像段階において撮像される第1監視領域と、第2撮像段階において撮像される第2監視領域との相対的な位置関係に基づいて、撮像制御段階において制御された同一の撮像条件で第1撮像段階及び第2撮像段階においてそれぞれ撮像された動画を構成する第1フレーム画像及び第2フレーム画像の合成位置を調整して合成画像を生成する合成画像生成段階と、合成画像生成段階において生成された合成画像を、第1監視領域及び第2監視領域の少なくとも一部を含む部分監視領域の動画を構成するフレーム画像として格納する動画格納段階とを備える。
本発明の第3の形態によると、動画を撮像する監視システム用のプログラムであって、監視システムを、第1監視領域の動画を撮像する第1撮像部、第1撮像部による第1監視領域の撮像動作に同期して、第1監視領域に隣接する第2監視領域の動画を撮像する第2撮像部、第1撮像部の撮像条件と第2撮像部の撮像条件とを一致させる撮像制御部、第1撮像部が撮像する第1監視領域と、第2撮像部が撮像する第2監視領域との相対的な位置関係に基づいて、撮像制御部によって制御された同一の撮像条件で第1撮像部及び第2撮像部がそれぞれ撮像した動画を構成する第1フレーム画像及び第2フレーム画像の合成位置を調整して合成画像を生成する合成画像生成部、合成画像生成部が生成した合成画像を、第1監視領域及び第2監視領域の少なくとも一部を含む部分監視領域の動画を構成するフレーム画像として格納する動画格納部として機能させる。
本発明の第4の形態における監視システムは、第1監視領域の動画を撮像する第1撮像部と、第1撮像部による第1監視領域の撮像動作に同期して、第1監視領域に隣接する第2監視領域の動画を撮像する第2撮像部と、第1撮像部が撮像する第1監視領域と、第2撮像部が撮像する第2監視領域との相対的な位置関係に基づいて、第1撮像部及び第2撮像部がそれぞれ撮像した動画を構成する第1フレーム画像及び第2フレーム画像の合成位置を調整して合成画像を生成する合成画像生成部と、合成画像生成部が生成した合成画像を解析することによって、合成画像の中の特徴領域を特定する特徴領域特定部と、合成画像生成部が生成した合成画像から、特徴領域特定部が特定した特徴領域の画像である特徴領域画像をトリミングして抽出するトリミング部と、トリミング部が抽出した特徴領域画像を、第1監視領域及び第2監視領域の少なくとも一部を含む部分監視領域の動画を構成するフレーム画像として格納する動画格納部とを備える。
特徴領域特定部は、合成画像生成部が生成した連続する複数の合成画像を解析することによって、合成画像の中の動きがある領域である動き領域を特定し、トリミング部は、合成画像生成部が生成した合成画像から、特徴領域特定部が特定した動き領域の画像である動き領域画像をトリミングして抽出し、動画格納部は、トリミング部が抽出した動き領域画像を、部分監視領域の動画を構成するフレーム画像として格納してよい。
特徴領域特定部は、合成画像生成部が生成した合成画像を解析することによって、合成画像の中の人物が存在する領域である人物領域を特定し、トリミング部は、合成画像生成部が生成した合成画像から、特徴領域特定部が特定した人物領域の画像である人物領域画像をトリミングして抽出し、動画格納部は、トリミング部が抽出した人物領域画像を、部分監視領域の動画を構成するフレーム画像として格納してよい。
トリミング部は、合成画像生成部が生成した合成画像から、第1撮像部又は第2撮像部が撮像する第1フレーム画像又は第2フレーム画像と同一のアスペクト比の特徴領域画像をトリミングして抽出し、動画格納部は、トリミング部が抽出した特徴領域画像を特徴領域の動画を構成するフレーム画像として格納してよい。
トリミング部は、合成画像生成部が生成した合成画像から、外部の画像再生装置が再生する動画を構成するフレーム画像と同一のアスペクト比の特徴領域画像をトリミングして抽出し、動画格納部は、トリミング部が抽出した特徴領域画像を特徴領域の動画を構成するフレーム画像として格納してよい。
トリミング部が抽出した複数の特徴領域画像を、動画を構成するフレーム画像として動画圧縮する動画圧縮部をさらに備え、動画格納部は、動画圧縮部が圧縮した複数の特徴領域画像を特徴領域の動画を構成するフレーム画像として格納してよい。
第1撮像部が有する複数の受光素子から読み出された第1フレーム画像と、第2撮像部が有する複数の受光素子から読み出された第2フレーム画像とに交互に画像処理を施してメモリに格納する画像処理部をさらに備えてよい。
画像処理部は、第1撮像部が有する複数の受光素子から読み出された第1フレーム画像と、第2撮像部が有する複数の受光素子から読み出された第2フレーム画像とを交互にデジタルデータに変換するAD変換部を有し、合成画像生成部は、AD変換部によってデジタルデータに変換された第1フレーム画像と、AD変換部によってデジタルデータに変換された第2フレーム画像との合成位置を調整して合成画像を生成してよい。
画像処理部は、第1撮像部が有する複数の受光素子から読み出された第1フレーム画像の画像データと、第2撮像部が有する複数の受光素子から読み出された第2フレーム画像の画像データとを交互に表示用画像データに変換する画像データ変換部を有し、合成画像生成部は、画像データ変換部によって表示用画像データに変換された第1フレーム画像と、画像データ変換部によって表示用画像データに変換された第2フレーム画像との合成位置を調整して合成画像を生成してよい。
本発明の第5の形態における監視方法は、第1監視領域の動画を撮像する第1撮像段階と、第1撮像段階における第1監視領域の撮像動作に同期して、第1監視領域に隣接する第2監視領域の動画を撮像する第2撮像段階と、第1撮像段階において撮像される第1監視領域と、第2撮像段階において撮像される第2監視領域との相対的な位置関係に基づいて、第1撮像段階及び第2撮像段階においてそれぞれ撮像された動画を構成する第1フレーム画像及び第2フレーム画像の合成位置を調整して合成画像を生成する合成画像生成段階と、合成画像生成段階において生成された合成画像を解析することによって、合成画像の中の特徴領域を特定する特徴領域特定段階と、合成画像生成段階において生成された合成画像から、特徴領域特定段階において特定された特徴領域の画像である特徴領域画像をトリミングして抽出するトリミング段階と、トリミング段階において抽出された特徴領域画像を、第1監視領域及び第2監視領域の少なくとも一部を含む部分監視領域の動画を構成するフレーム画像として格納する動画格納段階とを備える。
本発明の第6の形態よると、動画を撮像する監視システム用のプログラムであって、監視システムを、第1監視領域の動画を撮像する第1撮像部、第1撮像部による第1監視領域の撮像動作に同期して、第1監視領域に隣接する第2監視領域の動画を撮像する第2撮像部、第1撮像部が撮像する第1監視領域と、第2撮像部が撮像する第2監視領域との相対的な位置関係に基づいて、第1撮像部及び第2撮像部がそれぞれ撮像した動画を構成する第1フレーム画像及び第2フレーム画像の合成位置を調整して合成画像を生成する合成画像生成部、合成画像生成部が生成した合成画像を解析することによって、合成画像の中の特徴領域を特定する特徴領域特定部、合成画像生成部が生成した合成画像から、特徴領域特定部が特定した特徴領域の画像である特徴領域画像をトリミングして抽出するトリミング部、トリミング部が抽出した特徴領域画像を、第1監視領域及び第2監視領域の少なくとも一部を含む部分監視領域の動画を構成するフレーム画像として格納する動画格納部として機能させる。
本発明の第7の形態における監視システムは、第1監視領域の動画を撮像する第1撮像部と、第1撮像部による第1監視領域の撮像動作に同期して、第1監視領域に隣接する第2監視領域の動画を撮像する第2撮像部と、第1撮像部及び第2撮像部がそれぞれ撮像した動画に基づいて、第1監視領域及び第2監視領域を含む全体監視領域の中の特徴領域を特定する特徴領域特定部と、特徴領域特定部が特定した複数の特徴領域をそれぞれ含む複数の特徴領域画像を、第1撮像部又は第2撮像部がそれぞれ撮像した動画を構成する第1フレーム画像又は第2フレーム画像からトリミングして抽出するトリミング部と、トリミング部が抽出した複数の特徴領域画像を合成した合成画像を生成する合成画像生成部と、合成画像生成部が生成した合成画像を、第1監視領域及び第2監視領域の少なくとも一部を含む部分監視領域の動画を構成するフレーム画像として格納する動画格納部とを備える。
特徴領域特定部は、第1撮像部及び第2撮像部がそれぞれ撮像した動画に基づいて、動きがある領域である動き領域を特徴領域として特定し、トリミング部は、特徴領域特定部が特定した複数の動き領域を含む画像である動き領域画像を、第1撮像部又は第2撮像部がそれぞれ撮像した動画を構成する第1フレーム画像又は第2フレーム画像からトリミングして抽出してよい。
特徴領域特定部は、第1撮像部及び第2撮像部がそれぞれ撮像した動画に基づいて、人物が存在する領域である人物領域を特徴領域として特定し、トリミング部は、特徴領域特定部が特定した複数の人物領域を含む画像である人物領域画像を、第1撮像部又は第2撮像部がそれぞれ撮像した動画を構成する第1フレーム画像又は第2フレーム画像からトリミングして抽出してよい。
トリミング部は、合成画像生成部によって生成される合成画像が第1撮像部又は第2撮像部が撮像する第1フレーム画像又は第2フレーム画像と同一のアスペクト比になるように、特徴領域特定部が特定した特徴領域を含む特徴領域画像をトリミングして抽出し、動画格納部は、トリミング部が抽出した部分監視領域画像を部分監視領域の動画を構成するフレーム画像として格納してよい。
トリミング部は、合成画像生成部によって生成される合成画像が外部の画像再生装置が再生する動画を構成するフレーム画像と同一のアスペクト比になるように、特徴領域特定部が特定した特徴領域を含む特徴領域画像をトリミングして抽出し、動画格納部は、トリミング部が抽出した部分監視領域画像を部分監視領域の動画を構成するフレーム画像として格納してよい。
トリミング部が抽出した複数の特徴領域画像を、動画を構成するフレーム画像として動画圧縮する動画圧縮部をさらに備え、動画格納部は、動画圧縮部が圧縮した複数の合成画像を部分監視領域の動画を構成するフレーム画像として格納してよい。
第1撮像部が有する複数の受光素子から読み出された第1フレーム画像と、第2撮像部が有する複数の受光素子から読み出された第2フレーム画像とに交互に画像処理を施してメモリに格納する画像処理部をさらに備えてよい。
画像処理部は、第1撮像部が有する複数の受光素子から読み出された第1フレーム画像と、第2撮像部が有する複数の受光素子から読み出された第2フレーム画像とを交互にデジタルデータに変換するAD変換部を有し、特徴領域特定部は、AD変換部によってデジタルデータに変換された第1フレーム画像及び第2フレーム画像に基づいて特徴領域を特定してよい。
画像処理部は、第1撮像部が有する複数の受光素子から読み出された第1フレーム画像の画像データと、第2撮像部が有する複数の受光素子から読み出された第2フレーム画像の画像データとを交互に表示用画像データに変換する画像データ変換部を有し、特徴領域特定部は、画像データ変換部によって表示用画像データに変換された第1フレーム画像及び第2フレーム画像に基づいて特徴領域を特定してよい。
本発明の第8の形態における監視方法は、第1監視領域の動画を撮像する第1撮像段階と、第1撮像段階による第1監視領域の撮像動作に同期して、第1監視領域に隣接する第2監視領域の動画を撮像する第2撮像段階と、第1撮像段階及び第2撮像段階においてそれぞれ撮像された動画に基づいて、第1監視領域及び第2監視領域を含む全体監視領域の中の特徴領域を特定する特徴領域特定段階と、特徴領域特定段階において特定された複数の特徴領域をそれぞれ含む複数の特徴領域画像を、第1撮像段階又は第2撮像段階がそれぞれ撮像した動画を構成する第1フレーム画像又は第2フレーム画像からトリミングして抽出するトリミング段階と、トリミング段階において抽出された複数の特徴領域画像を合成した合成画像を生成する合成画像生成段階と、合成画像生成段階において生成された合成画像を、第1監視領域及び第2監視領域の少なくとも一部を含む部分監視領域の動画を構成するフレーム画像として格納する動画格納段階とを備える。
本発明の第9の形態によると、動画を撮像する監視システム用のプログラムであって、監視システムを、第1監視領域の動画を撮像する第1撮像部、第1撮像部による第1監視領域の撮像動作に同期して、第1監視領域に隣接する第2監視領域の動画を撮像する第2撮像部、第1撮像部及び第2撮像部がそれぞれ撮像した動画に基づいて、第1監視領域及び第2監視領域を含む全体監視領域の中の特徴領域を特定する特徴領域特定部、特徴領域特定部が特定した複数の特徴領域をそれぞれ含む複数の特徴領域画像を、第1撮像部又は第2撮像部がそれぞれ撮像した動画を構成する第1フレーム画像又は第2フレーム画像からトリミングして抽出するトリミング部、トリミング部が抽出した複数の特徴領域画像を合成した合成画像を生成する合成画像生成部、合成画像生成部が生成した合成画像を、第1監視領域及び第2監視領域の少なくとも一部を含む部分監視領域の動画を構成するフレーム画像として格納する動画格納部として機能させる。
なお上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではなく、これらの特徴群のサブコンビネーションもまた発明となりうる。
本発明によれば、重要な監視領域を低コストで監視することができる監視システムを提供することができる。
以下、発明の実施形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲に係る発明を限定するものではなく、また実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。
図1は、本発明の一実施形態に係る監視システム100の利用環境の一例を示す。監視システム100は、監視装置110、画像再生装置120、及び携帯端末130を備える。監視装置110は、監視領域170を撮像して動画のフレーム画像を生成して、監視センター等に設けられた画像再生装置120、監視領域170の管理人が所持する携帯端末130等に送信する。監視装置110は、監視領域170の動画を撮像する複数のカメラ112a及び112b(以後、112と総称する)、並びに、カメラ112a及び112bからの撮像データを順次受け取って画像データに変換する画像生成装置111を有している。
カメラ112a及び112bは、撮像監視領域170の異なる撮像範囲を撮像する。カメラ112a及び112bの、少なくとも一部の撮像領域は重複していてよい。そして、画像生成装置111は、カメラ112aとカメラ112bが重複して撮像する重複撮像領域を特定して、カメラ112bにおける重複撮像領域以外の画像領域と、カメラ112aで撮像された画像とを合成して合成画像を生成する。そして、画像生成装置111は、合成された合成画像から、人物を含む画像領域、動きのある被写体が写った画像領域等をトリミングすることによって一のフレーム画像を生成して、画像再生装置120に送信する。このとき、監視装置110は、カメラ112a又は112bによって撮像されるアスペクト比、若しくは、画像再生装置120がモニタ等の表示装置121に表示させるべき画像のアスペクト比でトリミングする。
なお、カメラ112a及び112bによって撮像されたフレーム画像から、人物が含まれる部分領域、動く物体が含まれる部分領域等の、監視対象として重要な部分領域を撮像するカメラ112aの撮像条件に、他方のカメラ112bの撮像条件を一致させてフレーム画像を撮像してよい。
なお、監視装置110は、以上説明したような、複数のカメラ112からの画像を合成して得られた合成画像から、重要な部分領域を切り出してフレーム画像を生成する動作モードであるトリミングモードの他に、監視装置110は、複数のカメラ112によって撮像されたそれぞれのフレーム画像から、監視対象として重要な複数の部分領域をトリミングして、トリミングした部分領域を一のフレーム画像として連結して一のフレーム画像を生成する動作モードである連結モードを有してもよい。なお、連結モードにおいても、トリミングモードでフレーム画像と同一のアスペクト比のフレーム画像を生成してよい。
以上説明した監視システム100によると、高解像度カメラを使用せずに、より低解像度で安価なカメラ112を複数使用することによって、広い範囲の監視領域を効率的に監視することができる。例えば、横長の監視領域を監視する必要がある場合は、カメラ112を横方向に複数並べることによって、個々の監視領域毎に適切な解像度の監視画像を得ることができる。また、複数のカメラによる撮像データを共用の画像生成装置111が処理するので、カメラ112のそれぞれが画像を処理する場合に比べて、より低いコストで動画を生成することができる。
なお、監視装置110は、インターネット等の通信回線180を介して、画像再生装置120又は携帯端末130に撮像画像を送信してよい。また、画像再生装置120は、コンピュータ等の、動画を受信して再生することができる装置であってよい。また、携帯端末130は、携帯電話、PDA等の携帯情報端末であってよい。画像再生装置120は、監視領域170の遠方の監視センター等に位置してよく、監視領域170の近傍に位置してもよい。
図2は、監視装置110がトリミングモードで動作する場合の動作ブロックの一例を示す。監視システム100は、第1撮像部210a、第2撮像部210b、画像処理部220、重複監視領域特定部230、監視領域位置算出部232、監視領域位置格納部234、合成画像生成部240、顔領域抽出部250、顔領域明るさ判断部252、動画圧縮部260、特徴領域特定部270、撮像条件決定部272、撮像制御部274、トリミング部280、及び動画格納部290を備える。画像処理部220は、利得制御部222、AD変換部224、画像データ変換部226、及びメモリ228を有する。なお、図1で説明したカメラ112a及び112bは、それぞれ第1撮像部210a及び第2撮像部210bとして機能してよく、図1で説明した画像生成装置111は、画像処理部220、重複監視領域特定部230、監視領域位置算出部232、監視領域位置格納部234、合成画像生成部240、顔領域抽出部250、顔領域明るさ判断部252、動画圧縮部260、特徴領域特定部270、撮像条件決定部272、撮像制御部274、トリミング部280、及び動画格納部290として機能してよい。
第1撮像部210aは、第1監視領域の動画を撮像する。また、第2撮像部210bは、第1撮像部210aによる第1監視領域の撮像動作に同期して、第1監視領域に隣接する第2監視領域の動画を撮像する。例えば、第2撮像部210bは、第1撮像部210aの撮像動作と同じタイミングで第2監視領域を撮像する。なお、第1撮像部210a及び第2撮像部210bは、具体的には、被写体からの光をCCD等の複数の受光素子で受光して、それぞれ動画の第1フレーム画像及び第2フレーム画像を生成してよい。
具体的には、監視領域位置格納部234は、第1撮像部210aが撮像する第1監視領域と、第2撮像部210bが撮像する第2監視領域との相対的な位置関係を格納している。そして、合成画像生成部240は、監視領域位置格納部234が格納した第1監視領域と第2監視領域との相対的な位置関係に基づいて、第1フレーム画像及び第2フレーム画像の合成位置を調整して合成画像を生成する。
合成画像生成部240は、第1撮像部210aが撮像する第1監視領域と、第2撮像部210bが撮像する第2監視領域との相対的な位置関係に基づいて、第1撮像部210a及び第2撮像部210bがそれぞれ撮像した動画を構成する第1フレーム画像及び第2フレーム画像の合成位置を調整して合成画像を生成する。そして、動画格納部290は、合成画像生成部240が生成した合成画像を、第1監視領域及び第2監視領域の少なくとも一部を含む部分監視領域の動画を構成するフレーム画像として格納する。これにより、複数の撮像装置によって広範囲の監視領域170を監視することができる。
重複監視領域特定部230は、第1撮像部210aが撮像した第1フレーム画像と、第1撮像部210aが第1フレーム画像を撮像すると同時に第2撮像部210bが撮像した第2フレーム画像とをマッチングすることによって、第1撮像部210aの第1監視領域と第2撮像部210bの第2監視領域とが重複する領域である重複監視領域を特定する。監視領域位置算出部232は、重複監視領域特定部230が特定した重複監視領域に基づいて、第1撮像部210aが撮像する第1監視領域と、第2撮像部210bが撮像する第2監視領域との相対的な位置関係を算出する。そして、監視領域位置格納部234は、監視領域位置算出部232が算出した第1撮像部210aが撮像する第1監視領域と、第2撮像部210bが撮像する第2監視領域との相対的な位置関係を格納する。
そして、合成画像生成部240は、監視領域位置算出部232が算出した第1監視領域と第2監視領域との相対的な位置関係に基づいて、第1フレーム画像及び第2フレーム画像の合成位置を調整して合成画像を生成する。具体的には、合成画像生成部240は、監視領域位置格納部234が格納する、監視領域位置算出部232が算出した第1監視領域と第2監視領域との相対的な位置関係に基づいて、合成画像を生成する。
なお、監視領域位置格納部234は、第1撮像部210aが撮像する第1監視領域と、第2撮像部210bが撮像する第2監視領域との相対的な位置関係を予め格納してもよい。また、重複監視領域特定部230は、第1撮像部210aが撮像した第1フレーム画像と、第2撮像部210bが撮像した第2フレーム画像とに基づいて、重複監視領域を定期的に特定してよい。そして、監視領域位置算出部232は、重複監視領域特定部230によって定期的に算出された重複監視領域に基づいて、第1撮像部210aが撮像する第1監視領域と、第2撮像部210bが撮像する第2監視領域との相対的な位置関係を定期的に算出して、監視領域位置格納部234に格納してよい。
トリミング部280は、合成画像生成部240が生成した合成画像を、第1撮像部210a又は第2撮像部210bが撮像する第1フレーム画像又は第2フレーム画像と同一のアスペクト比にトリミングして部分監視領域画像を抽出する。なお、トリミング部280は、合成画像生成部240が生成した合成画像を、外部の画像再生装置120が再生する動画を構成するフレーム画像と同一のアスペクト比にトリミングして部分監視領域画像を抽出してもよい。
そして、動画格納部290は、トリミング部280が抽出した部分監視領域画像を部分監視領域の動画を構成するフレーム画像として格納する。動画圧縮部260は、トリミング部280が抽出した複数の部分監視領域画像を、動画を構成するフレーム画像として動画圧縮する。例えば、動画圧縮部260は、MPEG規格に基づいて、複数の部分監視領域画像を動画圧縮する。そして、動画格納部290は、動画圧縮部260が圧縮した複数の部分監視領域画像を、部分監視領域の動画を構成するフレーム画像として格納する。以上説明したように、監視装置110は、複数の撮像装置で撮像された広い監視画像の中から、監視対象として重要な被写体を含む部分領域の動画を生成することができる。
なお、合成画像生成部240は、実際に合成画像を生成するのではなく、仮想的な合成画像を生成してよい。具体的には、合成画像生成部240は、監視領域位置算出部232が算出した第1監視領域と第2監視領域との相対的な位置関係に基づいて、第1フレーム画像及び第2フレーム画像の合成位置を調整して、調整された合成位置の情報と第1フレーム画像及び第2フレーム画像とが対応づけられた仮想合成画像情報を生成してよい。そして、トリミング部280は、合成画像生成部240が生成した仮想合成画像情報に基づいて、第1フレーム画像及び第2フレーム画像の少なくとも一方からトリミングして部分監視領域画像を抽出してもよい。
画像処理部220は、第1撮像部210aが有する複数の受光素子から読み出された第1フレーム画像と、第2撮像部210bが有する複数の受光素子から読み出された第2フレーム画像とに交互に画像処理を施してメモリ228に格納する。利得制御部222は、例えばAGC(Automatic Gain Control)であってよく、第1撮像部210a及び第2撮像部210bから入力された信号を、後段の信号処理のために、適切な信号レベルになるように変換する。そして、AD変換部224は、第1撮像部210aが有する複数の受光素子から読み出された第1フレーム画像と、第2撮像部210bが有する複数の受光素子から読み出された第2フレーム画像とを交互にデジタルデータに変換する。具体的には、利得制御部222によって適切な信号レベルに変換された信号を、デジタルデータに変換する。そして、合成画像生成部240は、AD変換部224によってデジタルデータに変換された第1フレーム画像と、AD変換部224によってデジタルデータに変換された第2フレーム画像との合成位置を調整して合成画像を生成する。
また、画像データ変換部226は、第1撮像部210aが有する複数の受光素子から読み出された第1フレーム画像の画像データと、第2撮像部210bが有する複数の受光素子から読み出された第2フレーム画像の画像データとを交互に表示用画像データに変換する。例えば、画像データ変換部226は、AD変換部224によってデジタルデータに変換されたCCD等の受光量に対して、ガンマ補正等の変換処理を施すことによって、表示用画像データに変換する。そして、合成画像生成部240は、画像データ変換部226によって表示用画像データに変換された第1フレーム画像と、画像データ変換部226によって表示用画像データに変換された第2フレーム画像との合成位置を調整して合成画像を生成する。
以上説明したように、第1撮像部210a及び第2撮像部210bが撮像した撮像データを共用の画像処理部220で処理することによって、撮像装置のそれぞれが画像処理を行う場合に比べて監視装置110のコストを削減することができる。
特徴領域特定部270は、合成画像生成部240が生成した合成画像を解析することによって、合成画像の中の特徴領域を特定する。そして、トリミング部280は、合成画像生成部240が生成した合成画像から、特徴領域特定部270が特定した特徴領域の画像である特徴領域画像をトリミングして抽出する。そして、動画格納部290は、トリミング部280が抽出した特徴領域画像を、第1監視領域及び第2監視領域の少なくとも一部を含む部分監視領域の動画を構成するフレーム画像として格納する。
具体的には、特徴領域特定部270は、合成画像生成部240が生成した連続する複数の合成画像を解析することによって、合成画像の中の動きがある領域である動き領域を特定する。例えば、前に撮像されたフレーム画像から動き領域を特定してよい。そして、トリミング部280は、合成画像生成部240が生成した合成画像から、特徴領域特定部270が特定した動き領域の画像である動き領域画像をトリミングして抽出する。そして、動画格納部290は、トリミング部280が抽出した動き領域画像を、部分監視領域の動画を構成するフレーム画像として格納する。このため、監視装置110は、動きのある被写体を含む画像領域を、重要な監視対象領域として適切に監視することができる。
他にも、特徴領域特定部270は、合成画像生成部240が生成した合成画像を解析することによって、合成画像の中の人物が存在する領域である人物領域を特定する。そして、トリミング部280は、合成画像生成部240が生成した合成画像から、特徴領域特定部270が特定した人物領域の画像である人物領域画像をトリミングして抽出する。そして、動画格納部290は、トリミング部280が抽出した人物領域画像を、部分監視領域の動画を構成するフレーム画像として格納する。このため、監視装置110は、人物を含む画像領域を、重要な監視対象領域として適切に監視することができる。
なお、トリミング部280は、第1撮像部210a又は第2撮像部210bが撮像する第1フレーム画像又は第2フレーム画像と同一のアスペクト比、若しくは、外部の画像再生装置120が再生する動画を構成するフレーム画像と同一のアスペクト比の特徴領域画像をトリミングを抽出してよい。そして、動画格納部290は、トリミング部280が抽出した特徴領域画像を特徴領域の動画を構成するフレーム画像として格納する。このため、監視装置110は、重要な監視対象領域を撮像した、監視に適した適切なアスペクト比のフレーム画像を記録することができる。
また、動画圧縮部260は、トリミング部280が抽出した複数の特徴領域画像を、動画を構成するフレーム画像として動画圧縮してよい。動画格納部290は、動画圧縮部260が圧縮した複数の特徴領域画像を特徴領域の動画を構成するフレーム画像として格納してよい。
撮像制御部274は、第1撮像部210aの撮像条件と第2撮像部210bの撮像条件とを一致させる。そして、合成画像生成部240は、第1撮像部210aが撮像する第1監視領域と、第2撮像部210bが撮像する第2監視領域との相対的な位置関係に基づいて、撮像制御部274によって制御された同一の撮像条件で第1撮像部210a及び第2撮像部210bがそれぞれ撮像した動画を構成する第1フレーム画像及び第2フレーム画像の合成位置を調整して合成画像を生成する。なお、合成画像生成部240は、上述のとおり、第1監視領域と第2監視領域位置関係に基づいて、第1フレーム画像及び第2フレーム画像の合成位置を調整して合成画像を生成する。
特徴領域特定部270は、第1撮像部210a及び第2撮像部210bがそれぞれ撮像した動画に基づいて、第1監視領域及び第2監視領域を含む全体監視領域170の中の特徴領域を特定する。そして、撮像条件決定部272は、特徴領域特定部270が特定した特徴領域の画像に基づいて、第1撮像部210a及び第2撮像部210bの撮像条件を決定する。そして、撮像制御部274は、撮像条件決定部272が決定した撮像条件で第1撮像部210a及び第2撮像部210bに動画を撮像させる。
より具体的には、特徴領域特定部270は、第1撮像部210a及び第2撮像部210bがそれぞれ撮像した動画に基づいて、動きがある領域である動き領域を特徴領域として特定する。なお、特徴領域特定部270は、全体監視領域170に複数の動き領域が存在する場合には、動きが最も大きい動き領域を特定してよい。
そして、撮像条件決定部272は、特徴領域特定部270が特定した動き領域が含まれる第1撮像部210aが第1監視領域が撮像した第1フレーム画像に基づいて、第1撮像部210a及び第2撮像部210bの露出条件を決定する。そして、撮像制御部274は、撮像条件決定部272が決定した露出条件で第1撮像部210a及び第2撮像部210bに動画を撮像させる。
特徴領域特定部270は、第1撮像部210a及び第2撮像部210bがそれぞれ撮像した動画に基づいて、人物が存在する領域である人物領域を特徴領域として特定してよい。そして、撮像条件決定部272は、特徴領域特定部270が特定した人物領域が含まれる第1撮像部210aが第1監視領域が撮像した第1フレーム画像に基づいて、第1撮像部210a及び第2撮像部210bの露出条件を決定する。そして、撮像制御部274は、撮像条件決定部272が決定した露出条件で第1撮像部210a及び第2撮像部210bに動画を撮像させる。
特徴領域特定部270は、全体監視領域170に複数の人物領域が存在する場合には、全体監視領域170に対する人物の面積が最も大きい人物領域を特定する。そして、撮像条件決定部272は、特徴領域特定部270が特定した人物領域が含まれる第1撮像部210aが第1監視領域が撮像した第1フレーム画像に基づいて、第1撮像部210a及び第2撮像部210bの露出条件を決定する。そして、撮像制御部274は、撮像条件決定部272が決定した露出条件で第1撮像部210a及び第2撮像部210bに動画を撮像させる。このため、監視装置110は、監視領域170への侵入者等の人物を適切に監視することができる。
顔領域抽出部250は、第1撮像部210a及び第2撮像部210bがそれぞれ撮像した動画に基づいて、全体監視領域170の中の人物の顔の領域である顔領域を抽出する。そして、顔領域明るさ判断部252は、顔領域抽出部250が抽出した顔領域の明るさを判断する。なお、特徴領域特定部270は、全体監視領域170に複数の人物領域が存在する場合には、顔領域明るさ判断部252が判断した明るさが予め定められた範囲内の明るさである人物の人物領域を特定する。また、特徴領域特定部270は、全体監視領域170に複数の人物領域が存在する場合には、顔領域明るさ判断部252が判断した明るさが最も大きい明るさである人物の人物領域を特定してもよい。
そして、撮像条件決定部272は、特徴領域特定部270が特定した人物領域が含まれる第1撮像部210aが第1監視領域が撮像した第1フレーム画像に基づいて、第1撮像部210a及び第2撮像部210bの露出条件を決定する。そして、撮像制御部274は、撮像条件決定部272が決定した露出条件で第1撮像部210a及び第2撮像部210bに動画を撮像させる。なお、露出条件とは、第1撮像部210a及び第2撮像部210bの絞り又は露光時間の少なくとも一方を含んでよい。
以上説明したように、監視装置110は、監視対象として重要性の高い被写体を適切に撮像することができるカメラの撮像条件に他のカメラ112の撮像条件を合わせるので、見た目に統一感のあるフレーム画像を生成することができる。
図3は、監視装置110による監視領域の撮像過程の一例を示す。監視装置110は、所定のフレーム周期Tfでフレーム画像を取得する。このとき、撮像部210a及び第2撮像部210bは、所定の露光時間Teで露光されて、例えば光量に応じた電荷が蓄積される。そして、撮像部210a及び第2撮像部210bは、露光期間終了後に、蓄積された電荷を画像処理部220の利得制御部222に順次転送する。そして、画像処理部220は、第1撮像部210aから転送された電荷に基づいて第1監視領域の第1フレーム画像312を生成してメモリ228に記憶した後に、第2撮像部210bから転送された電荷に基づいて第2監視領域の第2フレーム画像313を生成してメモリ228に記憶する。なお、画像処理部220は、第1撮像部210aから利得制御部222に転送されたデータをAD変換部224においてデジタルデータに変換され時点で一旦記憶させ、その後、第1撮像部210aからのデータに対して画像データ変換部226等において画像変換処理が施される前に、第2撮像部210bから利得制御部222へのデータ転送を開始させてよい。
そして、重複監視領域特定部230は、第1フレーム画像312及び第2フレーム画像313について、第2フレーム画像313を第1フレーム画像312に対してずらした位置において、各フレーム画像が重なり合う画像領域における画像の一致度を算出する。そして、重複監視領域特定部230は、所定のずらし量毎における画像の一致度を算出する。
例えば、重複監視領域特定部230は、第1フレーム画像312の長手方向において、第2フレーム画像312を、フレーム画像313の端部から長手方向にずらしていく。そして、重複監視領域特定部230は、重なり合う画像領域において画像をマッチングさせ、画像のマッチング度を、フレーム画像の一致度として算出する。なお、画像のマッチング度とは、各フレーム画像が重なり合う画像領域に含まれるオブジェクトがマッチングしている部分の面積の、当該画像領域の面積に対する割合を指標とした値であってもよい。他にも、画像のマッチング度とは、フレーム画像が重なり合う画像領域の差分画像における、各画素の輝度の平均値を指標とした値であってもよい。
そして、重複監視領域特定部230は、一致度が最大となるずらし量Lを算出する。そして、重複監視領域特定部230は、画像をずらした方向とずらし量Lとに基づいて、重複監視領域を特定する。なお、以上の説明においては、説明を簡略化するために、第1フレーム画像の長手方向にずらせていくことによって重複監視領域を特定する動作の一例について説明したが、第2フレーム画像をずらせていく方向は長手方向に限られないのは言うまでもない。例えば、重複監視領域特定部230は、第1フレーム画像の縦方向又は横方向等、任意の方向に沿って、所定のずらし量毎に第2フレーム画像をずらしていって、重複監視領域を算出してもよい。また、被写***置変化算出部204は、第1フレーム画像の縦方向及び横方向等、互いに異なる二方向において、所定のずらし量を同時に各々変化させていくことによって、重複画像領域を特定してもよい。
そして、監視領域位置算出部232は、重複監視領域特定部230が算出した重複監視領域に基づいて、第1フレーム画像312における撮像領域の中心座標と第2フレーム画像313における撮像領域の中心座標との相対座標値を、第1監視領域と第2監視領域との相対的な位置関係として算出する。その他、監視領域位置算出部232は、第1フレーム画像312において撮像される撮像領域の矩形の対角の座標と第2フレーム画像313において撮像される撮像領域の矩形の対角の座標とのそれぞれの相対座標値を、第1監視領域と第2監視領域との相対的な位置関係として算出してもよい。
そして、監視領域位置格納部234は、監視領域位置算出部232が算出した第1監視領域と、第2監視領域との相対的な位置関係を格納する。なお、以上説明した相対位置算出過程は、各フレーム画像が撮像される度に行ってもよいし、予め定められた周期で定期的になされてもよい。他にも、当該相対位置算出過程は、監視装置110が設置されたときになされてもよい。また、監視装置110は、撮像される各フレーム画像に基づいて、予め定められた周期で定期的に第1監視領域と第2監視領域の相対的な位置関係を算出して、算出した位置関係と、監視領域位置格納部234が格納する第1監視領域と第2監視領域の相対的な位置関係とを比較してもよい。そして、監視装置110は、算出した位置関係と監視領域位置格納部234が格納する位置関係との間に、予め定められた一致度より低い一致度が存在する場合に、監視領域位置格納部234が格納する位置関係に実際の位置関係と差がある旨のメッセージを発してもよい。
そして、合成画像生成部240は、監視領域位置格納部234が格納する位置関係に基づいて、重複監視領域が写された画像領域が重ならないように、第1フレーム画像312及び第2フレーム画像313の合成位置を調整して、合成画像320を生成する。以上説明したようにして、監視システム100では、複数のカメラ112からの画像を適切に合成することができる。
図4は、合成画像からトリミング部280が特徴領域画像をトリミングする処理の一例を示す。特徴領域特定部270は、合成画像401、402、403、及び404から、例えば、動きのある人物を含む画像領域411、412、413、及び414を特徴領域として特定する。そして、トリミング部280は、特徴領域411、412、413、及び414を含む動画の一フレーム画像の大きさの範囲の特徴領域画像421、422、423、及び424を、それぞれ部分監視領域画像としてトリミングする。そして、動画格納部290は、トリミングしたそれぞれの部分監視領域画像を、画像再生装置120に送信すべき動画のフレーム画像431、432、433、及び434として格納する。
なお、特徴領域特定部270は、フレーム画像に対してエッジ抽出等の画像処理によって被写体の輪郭を抽出して、抽出した被写体の輪郭と、予め定められた人物のパターンとのパターンマッチング等の手法によって、人物を含む画像領域を特定してよい。また、特徴領域特定部270は、連続して撮像された複数のフレーム画像に含まれる被写体の画像上の位置に基づいて、被写体の動きを算出してよい。
なお、トリミング部280は、監視領域170のうちの予め定められた重点監視領域が含まれるよう合成画像から部分監視領域画像をトリミングしてよい。また、トリミング部280は、特徴領域特定部270が動く被写体を特徴領域として特定した場合に、当該被写体が動く方向の画像領域が部分監視領域画像に含まれるよう、トリミングの範囲を決定してよい。他にも、トリミング部280は、部分監視領域画像の大きさがフレーム画像の大きさを超える場合に、トリミングした部分監視領域画像に対してアフィン変換等の画像処理を施すことによって、部分監視領域画像の大きさをフレーム画像の大きさの範囲内に収めてもよい。
図5は、第1撮像部210a及び第2撮像部210bの撮像条件を一致させる処理の一例を示す。第1撮像部210aは第1フレーム画像501、502、503を撮像しており、それぞれの第1フレーム画像が撮像されたタイミングと同じタイミングで、第2撮像部210bが第2フレーム画像551、552、553をそれぞれ撮像している。このとき、特徴領域特定部270は、第1撮像部210aが連続的に撮像した第1フレーム画像501及び502から、例えば、動きのある人物を含む画像領域511及び512を、特徴領域として特定する。また、特徴領域特定部270は、第2撮像部210bが連続的に撮像した第2フレーム画像551及び552から、例えば、動きのある人物を含む画像領域561及び562を、特徴領域として特定する。
そして撮像条件決定部272は、第1フレーム画像503及び第2フレーム画像553を撮像させる場合に、各フレーム画像を撮像する前のタイミングで撮像された第1フレーム画像502及び第2フレーム画像552のうちの、最も面積の大きい特徴領域512を含むフレーム画像502を撮像した第1撮像部210aがフレーム画像503を撮像する撮像条件に第2撮像部210bの撮像条件を合致させて、第2フレーム画像553を取得する。
なお、特徴領域特定部270は、人物を含む特徴領域512及び562を特定した場合に、顔領域抽出部250は、特徴領域の中において、例えば肌色の領域を抽出することによって、顔領域522及び572を特定する。そして、顔領域明るさ判断部252は、顔領域522及び572における画像の各画素の輝度の平均値等に基づいて、顔領域522及び572の画像の明るさを算出する。そして、特徴領域特定部270は、最も大きい明るさが算出された顔領域(例えば、顔領域522)を含むフレーム画像(例えば、第1フレーム画像502)を撮像した第1撮像部210aの撮像条件に、第2撮像部210bの撮像条件を合致させる。このとき、撮像条件決定部272は、顔領域522の被写体を第1撮像部210aが適切に撮像することができる露出条件を含む当該撮像条件を設定してよい。
また、撮像条件決定部272は、フレーム画像503及び553を撮像させる場合に、当該フレーム画像を撮像する前に撮像された複数のフレーム画像(例えば、第1フレーム画像501及び551、並びに、第2フレーム画像502及び552)のうちの、より動きが大きい特徴領域511及び512を特定されたフレーム画像502を撮像した第1撮像部210aがフレーム画像503を撮像する撮像条件に、第2撮像部210bの撮像条件を合致さして、第2撮像部210bにフレーム画像553を撮像させる。
なお、撮像条件決定部272は、最も早いタイミングで特徴領域として特定された領域に含まれる被写体の形状等の被写体特徴情報を、当該被写体が撮像されたタイミングである特徴領域撮像タイミングに対応づけて記憶しておき、最も早い特徴領域撮像タイミングに対応づけて記憶された被写体特徴情報と一致する被写体を撮像した第1撮像部210aの撮像条件に、第2撮像部210bの撮像条件を合致させてもよい。これにより、監視システム100では、例えば監視領域170に最初に侵入してきた人物を適切に撮像することができる撮像条件で監視装置110が撮像することによって、当該人物を適切に監視することができる。
図6は、監視装置110が連結モードにおいて動作する場合の動作ブロックの一例を示す。本例における連結モードにおいては、監視装置110は、第1撮像部210a、第2撮像部210b、画像処理部220、合成画像生成部240、動画圧縮部260、特徴領域特定部270、トリミング部280、及び動画格納部290を備える。画像処理部220は、利得制御部222、AD変換部224、画像データ変換部226及びメモリ228を有する。なお、第1撮像部210a及び第2撮像部210b、並びに画像処理部220が有する各構成要素は、図2において同一の符号を付した構成要素と同一の動作及び機能を有するので、説明を省略する。なお、本連結モードでフレーム画像を生成する場合には、第1撮像部210a及び第2撮像部210bが撮像する撮像条件は、各撮像部毎に設定されてよい。
特徴領域特定部270は、第1撮像部210a及び第2撮像部210bがそれぞれ撮像した動画に基づいて、第1監視領域及び第2監視領域を含む全体監視領域170の中の特徴領域を特定する。具体的には、特徴領域特定部270は、AD変換部224によってデジタルデータに変換された第1フレーム画像及び第2フレーム画像に基づいて特徴領域を特定する。より具体的には、特徴領域特定部270は、画像データ変換部226によって表示用画像データに変換された第1フレーム画像及び第2フレーム画像に基づいて特徴領域を特定する。
そして、トリミング部280は、特徴領域特定部270が特定した複数の特徴領域をそれぞれ含む複数の特徴領域画像を、第1撮像部210a又は第2撮像部210bがそれぞれ撮像した動画を構成する第1フレーム画像又は第2フレーム画像からトリミングして抽出する。そして、合成画像生成部240は、トリミング部280が抽出した複数の特徴領域画像を合成した合成画像を生成する。
そして、動画格納部290は、合成画像生成部240が生成した合成画像を、第1監視領域及び第2監視領域の少なくとも一部を含む部分監視領域の動画を構成するフレーム画像として格納する。このため、例えば、第1撮像部210aによる第1監視領域以外の領域にも重要な監視対象が存在している場合でも、複数の監視対象を一のフレーム画像に収めて画像再生装置120に送信することができる。
特徴領域特定部270は、第1撮像部210a及び第2撮像部210bがそれぞれ撮像した動画に基づいて、動きがある領域である動き領域を特徴領域として特定する。そして、トリミング部280は、特徴領域特定部270が特定した複数の動き領域を含む画像である動き領域画像を、第1撮像部210a又は第2撮像部210bがそれぞれ撮像した動画を構成する第1フレーム画像又は第2フレーム画像からトリミングして抽出する。
特徴領域特定部270は、第1撮像部210a及び第2撮像部210bがそれぞれ撮像した動画に基づいて、人物が存在する領域である人物領域を特徴領域として特定する。そして、トリミング部280は、特徴領域特定部270が特定した複数の人物領域を含む画像である人物領域画像を、第1撮像部210a又は第2撮像部210bがそれぞれ撮像した動画を構成する第1フレーム画像又は第2フレーム画像からトリミングして抽出する。
トリミング部280は、合成画像生成部240によって生成される合成画像が第1撮像部210a又は第2撮像部210bが撮像する第1フレーム画像又は第2フレーム画像と同一のアスペクト比になるように、特徴領域特定部270が特定した特徴領域を含む特徴領域画像をトリミングして抽出する。トリミング部280は、合成画像生成部240によって生成される合成画像が外部の画像再生装置120が再生する動画を構成するフレーム画像と同一のアスペクト比になるように、特徴領域特定部270が特定した特徴領域を含む特徴領域画像をトリミングして抽出してもよい。そして、動画格納部290は、トリミング部280が抽出した部分監視領域画像を部分監視領域の動画を構成するフレーム画像として格納する。
動画圧縮部260は、トリミング部280が抽出した複数の特徴領域画像を、動画を構成するフレーム画像として動画圧縮する。例えば、動画圧縮部260は、MPEG規格に基づいて、複数の部分監視領域画像を動画圧縮する。そして、動画格納部290は、動画圧縮部260が圧縮した複数の特長領域画像を部分監視領域の動画を構成するフレーム画像として格納する。
なお、トリミング部280は、監視装置110が連結モードでフレーム画像を生成する場合においても、トリミングモードにおいて合成画像からフレーム画像がトリミングされる場合のアスペクト比と同じアスペクト比でトリミングしてよい。これにより、トリミングモードと連結モードとの間でフレーム画像を生成する動作モードが時間的に遷移された場合でも、アスペクト比が変わって監視者にとって監視画像が見にくくなってしまうことを防ぐことができる。
図7は、監視装置110が連結モードにおいて生成されるフレーム画像の一例を示す。特徴領域特定部270は、第1撮像部210aが撮像した第1フレーム画像711、712、及び713から、それぞれの特徴領域721、722、及び723を特定する。また、特徴領域特定部270は、第2撮像部210bが撮像した第2フレーム画像751、752、及び753から、それぞれの特徴領域761、762、及び763を特定する。なお、特徴領域特定部270が特徴領域を特定する手法としては、例えば図4に関連して説明した方法と同じ手法を用いることができるので、説明を省略する。
そして、トリミング部280は、第1フレーム画像711に含まれる特徴領域721と、第2フレーム画像751に含まれる特徴領域761を含む特徴領域画像731及び771をトリミングする。このとき、トリミング部280は、画像再生装置120が表示する動画のアスペクト比と同一のアスペクト比となるように、特徴領域画像731及び771をトリミングしてよい。なお、トリミング部280は、特徴領域の面積がより大きい場合に、特徴領域を含むより大きい画像領域をトリミングしてもよい。また、トリミング部280は、特徴領域特定部270が動く被写体を特徴領域として特定した場合には、当該被写体が動く方向の監視領域を含む画像領域をトリミングしてよい。また、トリミング部280は、特徴領域特定部270が動く被写体を特徴領域として特定した場合には、動く速さがより大きい場合に、特徴領域を含むより大きい画像領域をトリミングしてもよい。また、トリミング部280は、特徴領域特定部270が動く被写体を特徴領域として特定した場合には、被写体が、被写体の大きさに対してより大きい速さで動いている場合に、特徴領域を含むより大きい画像領域をトリミングしてもよい。
なお、トリミング部280は、複数の特徴領域画像を連結して得られる画像の大きさが、画像再生装置120が再生する動画の大きさを超えてしまう場合には、当該範囲に収まるよう、トリミングされたそれぞれの特徴領域画像にアフィン変換等の画像処理を施してよい。
以上説明したように、監視装置110が連結モードによってフレーム画像を生成することによって、例えば金庫等、予め定められた監視対象領域と、監視領域170への侵入者とを同一フレーム画像に収めることができる。したがって、監視システム100においては、監視装置110から送信されてくる動画のデータ量を削減することができる。
図8は、監視装置110がフレーム画像を生成する動作モードを選択する処理フローの一例を示す。特徴領域特定部270は、第1撮像部210a及び第2撮像部210bが同じタイミングで撮像したそれぞれの画像から、特徴領域を特定する(S810)。そして、監視装置110は、特徴領域特定部270が特徴領域を複数特定したか否かを判断する(S820)。S820において、特徴領域特定部270が特徴領域を複数特定した場合には、監視装置110は、特徴領域特定部270が特定した複数の特徴領域がトリミング部280によってトリミングされるアスペクト比の部分監視画像の範囲内に収めることができるか否かを判断する(S830)。
S830において、特徴領域特定部270が特定した複数の特徴領域がトリミング部280によってトリミングされるアスペクト比の部分監視画像の範囲内に収めることができる場合には、連結モードで合成画像を生成する(S840)。S820において、特徴領域特定部270が特徴領域を複数特定していない場合、又は、特徴領域特定部270が特定した複数の特徴領域がトリミング部280によってトリミングされるアスペクト比の部分監視画像の範囲内に収めることができない場合には、トリミングモードで合成画像を生成する(S850)。以上説明したように、監視装置110は、監視領域170における重要な監視対象の存在位置、存在範囲等に応じて、トリミングモードと連結モードとを適切に選択することができる。
図9は、本実施形態に係る監視装置110のハードウェア構成の一例を示す。監視装置110は、ホスト・コントローラ1582により相互に接続されるCPU1505、RAM1520、グラフィック・コントローラ1575、及び表示装置1580を有するCPU周辺部と、入出力コントローラ1584によりホスト・コントローラ1582に接続される通信インターフェイス1530、ハードディスクドライブ1540、及びCD−ROMドライブ1560を有する入出力部と、入出力コントローラ1584に接続されるROM1510、フレキシブルディスク・ドライブ1550、及び入出力チップ1570を有するレガシー入出力部とを備える。
ホスト・コントローラ1582は、RAM1520と、高い転送レートでRAM1520をアクセスするCPU1505、及びグラフィック・コントローラ1575とを接続する。CPU1505は、ROM1510、及びRAM1520に格納されたプログラムに基づいて動作し、各部の制御を行う。グラフィック・コントローラ1575は、CPU1505等がRAM1520内に設けたフレーム・バッファ上に生成する画像データを取得し、表示装置1580上に表示させる。これに代えて、グラフィック・コントローラ1575は、CPU1505等が生成する画像データを格納するフレーム・バッファを、内部に含んでもよい。
入出力コントローラ1584は、ホスト・コントローラ1582と、比較的高速な入出力装置であるハードディスクドライブ1540、通信インターフェイス1530、CD−ROMドライブ1560を接続する。ハードディスクドライブ1540は、CPU1505が使用するプログラム、及びデータを格納する。通信インターフェイス1530は、ネットワーク通信装置1598に接続してプログラムまたはデータを送受信する。CD−ROMドライブ1560は、CD−ROM1595からプログラムまたはデータを読み取り、RAM1520を介してハードディスクドライブ1540、及び通信インターフェイス1530に提供する。
また、入出力コントローラ1584には、ROM1510と、フレキシブルディスク・ドライブ1550、及び入出力チップ1570の比較的低速な入出力装置とが接続される。ROM1510は、監視装置110が起動時に実行するブート・プログラムや、監視装置110のハードウェアに依存するプログラム等を格納する。フレキシブルディスク・ドライブ1550は、フレキシブルディスク1590からプログラムまたはデータを読み取り、RAM1520を介してハードディスクドライブ1540、及び通信インターフェイス1530に提供する。入出力チップ1570は、フレキシブルディスク・ドライブ1550や、例えばパラレル・ポート、シリアル・ポート、キーボード・ポート、マウス・ポート等を介して各種の入出力装置を接続する。
CPU1505が実行するプログラムは、フレキシブルディスク1590、CD−ROM1595、またはICカード等の記録媒体に格納されて利用者によって提供される。記録媒体に格納されたプログラムは圧縮されていても非圧縮であってもよい。プログラムは、記録媒体からハードディスクドライブ1540にインストールされ、RAM1520に読み出されてCPU1505により実行される。
CPU1505により実行されるプログラムは、監視装置110を、図1から図8に関連して説明した第1撮像部210a、第2撮像部210b、並びに、画像処理部220、重複監視領域特定部230、監視領域位置算出部232、監視領域位置格納部234、合成画像生成部240、顔領域抽出部250、顔領域明るさ判断部252、動画圧縮部260、特徴領域特定部270、撮像条件決定部272、撮像制御部274、トリミング部280、及び動画格納部290として機能させる。また、CPU1505により実行されるプログラムは、画像処理部220を、図1から図8に関連して説明した利得制御部222、AD変換部224、画像データ変換部226、及びメモリ228として機能させる。
以上に示したプログラムは、外部の記憶媒体に格納されてもよい。記憶媒体としては、フレキシブルディスク1590、CD−ROM1595の他に、DVDやPD等の光学記録媒体、MD等の光磁気記録媒体、テープ媒体、ICカード等の半導体メモリ等を用いることができる。また、専用通信ネットワークやインターネットに接続されたサーバシステムに設けたハードディスクまたはRAM等の記憶装置を記録媒体として使用し、ネットワークを介してプログラムを監視装置110に提供してもよい。
以上、実施形態を用いて本発明を説明したが、本発明の技術的範囲は上記実施形態に記載の範囲には限定されない。上記実施形態に、多様な変更又は改良を加えることができる。そのような変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。
監視システム100の利用環境の一例を示す図である。 トリミングモードにおける動作ブロックの一例を示す図である。 監視領域の撮像過程の一例を示す図である。 合成画像から特徴領域画像をトリミングする処理の一例を示す図である。 撮像条件を一致させる処理の一例を示す図である。 連結モードにおける動作ブロックの一例を示す図である。 連結モードにおいて生成されるフレーム画像の一例を示す図である。 フレーム画像を生成する動作モードを選択する処理フローの一例を示す図である。 監視装置110のハードウェア構成の一例を示す図である。
符号の説明
100 監視システム
110 監視装置
111 画像生成装置
112 カメラ
120 画像再生装置
130 携帯端末
170 監視領域
180 通信回線
210 撮像部
220 画像処理部
222 利得制御部
224 AD変換部
226 画像データ変換部
230 重複監視領域特定部
232 監視領域位置算出部
234 監視領域位置格納部
240 合成画像生成部
250 顔領域抽出部
252 顔領域明るさ判断部
260 動画圧縮部
270 特徴領域特定部
272 撮像条件決定部
274 撮像制御部
280 トリミング部
290 動画格納部

Claims (32)

  1. 第1監視領域の動画を撮像する第1撮像部から読み出された1画像と、前記第1撮像部による前記第1監視領域の撮像動作に同期して、前記第1監視領域に隣接する第2監視領域の動画を撮像する第2撮像部から読み出された2画像とに画像処理を施す画像処理部と、
    前記第1撮像部及び前記第2撮像部がそれぞれ撮像した動画に基づいて、前記第1監視領域及び前記第2監視領域を含む全体監視領域の中の動きがある領域である動き領域を特徴領域として特定する特徴領域特定部と、
    前記第1撮像部もしくは前記第2撮像部が撮像した前記特徴領域特定部が特定した動き領域が含まれる画像に基づいて、前記第1撮像部及び前記第2撮像部の撮像条件を一致させるよう前記第1撮像部及び前記第2撮像部の撮像条件を決定する撮像条件決定部と、
    前記第1監視領域と前記第2監視領域との相対的な位置関係に基づいて、前記画像処理部が画像処理を施した前記第1画像及び前記第2画像の合成位置を調整して合成画像を生成する合成画像生成部と、
    前記合成画像生成部が生成した前記合成画像を、前記第1監視領域及び前記第2監視領域の少なくとも一部を含む監視領域の動画を構成する画像として格納する動画格納部とを備える監視装置
  2. 前記特徴領域特定部は、前記全体監視領域に複数の動き領域が存在する場合には、動きが最も大きい動き領域を特定し、
    前記撮像条件決定部は、前記特徴領域特定部が特定した動き領域が含まれる前記第1撮像部もしくは前記第2撮像部が撮像した画像に基づいて、前記第1撮像部及び前記第2撮像部の撮像条件を決定する請求項に記載の監視装置
  3. 前記特徴領域特定部は、前記第1撮像部及び前記第2撮像部がそれぞれ撮像した動画に基づいて、人物が存在する領域である人物領域を特徴領域として特定し、
    前記撮像条件決定部は、前記特徴領域特定部が特定した人物領域が含まれる前記第1撮像部もしくは前記第2撮像部が撮像した画像に基づいて、前記第1撮像部及び前記第2撮像部の撮像条件を決定する、
    請求項に記載の監視装置
  4. 前記特徴領域特定部は、前記全体監視領域に複数の人物領域が存在する場合には、前記全体監視領域に対する人物の面積が最も大きい人物領域を特定し、
    前記撮像条件決定部は、前記特徴領域特定部が特定した人物領域が含まれる前記第1撮像部もしくは前記第2撮像部が撮像した画像に基づいて、前記第1撮像部及び前記第2撮像部の撮像条件を決定する、
    請求項に記載の監視装置
  5. 前記第1撮像部及び前記第2撮像部がそれぞれ撮像した動画に基づいて、前記全体監視領域の中の人物の顔の領域である顔領域を抽出する顔領域抽出部と、
    前記顔領域抽出部が抽出した顔領域の明るさを判断する顔領域明るさ判断部と
    をさらに備え、
    前記特徴領域特定部は、前記全体監視領域に複数の人物領域が存在する場合には、前記顔領域明るさ判断部が判断した明るさが予め定められた範囲内の明るさである人物の人物領域を特定し、
    前記撮像条件決定部は、前記特徴領域特定部が特定した人物領域が含まれる前記第1撮像部もしくは前記第2撮像部が撮像した画像に基づいて、前記第1撮像部及び前記第2撮像部の撮像条件を決定する、
    請求項に記載の監視装置
  6. 前記合成画像生成部が生成した前記合成画像を、前記第1撮像部又は前記第2撮像部が撮像する前記第1画像又は前記第2画像と同一のアスペクト比にトリミングして監視領域画像を抽出するトリミング部
    をさらに備え、
    前記動画格納部は、前記トリミング部が抽出した前記監視領域画像を前記監視領域の動画を構成する画像として格納する
    請求項1から請求項5のいずれか1つに記載の監視装置
  7. 前記合成画像生成部が生成した前記合成画像を、外部の画像再生装置が再生する動画を構成する画像と同一のアスペクト比にトリミングして監視領域画像を抽出するトリミング部
    をさらに備え、
    前記動画格納部は、前記トリミング部が抽出した前記監視領域画像を前記監視領域の動画を構成する画像として格納する
    請求項1から請求項5のいずれか1つに記載の監視装置
  8. 前記トリミング部が抽出した複数の前記監視領域画像を、動画を構成する画像として動画圧縮する動画圧縮部
    をさらに備え、
    前記動画格納部は、前記動画圧縮部が圧縮した前記複数の監視領域画像を前記監視領域の動画を構成する画像として格納する
    請求項6又は7に記載の監視装置
  9. 前記画像処理部は、
    前記第1撮像部が有する複数の受光素子から読み出された前記第1画像と、前記第2撮像部が有する複数の受光素子から読み出された前記第2画像とを交互にデジタルデータに変換するAD変換部
    を有し、
    前記合成画像生成部は、前記AD変換部によってデジタルデータに変換された前記第1画像と前記第2画像との合成位置を調整して前記合成画像を生成する
    請求項1から請求項8のいずれか1つに記載の監視装置
  10. 前記画像処理部は、
    前記第1撮像部が有する複数の受光素子から読み出された前記第1画像の画像データと、前記第2撮像部が有する複数の受光素子から読み出された前記第2画像の画像データとを交互に表示用画像データに変換する画像データ変換部
    を有し、
    前記合成画像生成部は、前記画像データ変換部によって前記表示用画像データに変換された前記第1画像と前記第2画像との合成位置を調整して前記合成画像を生成する
    請求項に記載の監視装置
  11. 前記撮像条件決定部が決定した撮像条件に基づいて前記第1撮像部及び前記第2撮像部に動画を撮像させる撮像制御部をさらに備える請求項1から請求項10のいずれか1つに記載の監視装置。
  12. 第1監視領域の動画を撮像する第1撮像部から読み出された1画像と、前記第1撮像部による前記第1監視領域の撮像動作に同期して、前記第1監視領域に隣接する第2監視領域の動画を撮像する第2撮像部から読み出された2画像とに画像処理を施す画像処理段階と、
    前記第1撮像部及び前記第2撮像部がそれぞれ撮像した動画に基づいて、前記第1監視領域及び前記第2監視領域を含む全体監視領域の中の動きがある領域である動き領域を特徴領域として特定する特徴領域特定段階と、
    前記第1撮像部もしくは第2撮像部が撮像した前記特徴領域特定段階で特定された動き領域が含まれる画像に基づいて、前記第1撮像部及び前記第2撮像部の撮像条件を一致させるよう前記第1撮像部及び前記第2撮像部の撮像条件を決定する撮像条件決定段階と、
    前記第1監視領域と前記第2監視領域との相対的な位置関係に基づいて、前記画像処理が施された前記第1画像及び前記第2画像の合成位置を調整して合成画像を生成する合成画像生成段階と、
    前記合成画像生成段階において生成された前記合成画像を、前記第1監視領域及び前記第2監視領域の少なくとも一部を含む監視領域の動画を構成する画像としてメモリに格納する動画格納段階と
    を備える監視方法。
  13. 前記特徴領域特定段階において、前記全体監視領域に複数の動き領域が存在する場合には、動きが最も大きい動き領域を特定し、
    前記撮像条件決定段階において、前記特徴領域特定段階において特定された動き領域が含まれる前記第1撮像部もしくは前記第2撮像部が撮像した画像に基づいて、前記第1撮像部及び前記第2撮像部の撮像条件を決定する請求項12に記載の監視方法
  14. 前記特徴領域特定段階において、前記第1撮像部及び前記第2撮像部がそれぞれ撮像した動画に基づいて、人物が存在する領域である人物領域を特徴領域として特定し、
    前記撮像条件決定段階において、前記特徴領域特定段階において特定された人物領域が含まれる前記第1撮像部もしくは前記第2撮像部が撮像した画像に基づいて、前記第1撮像部及び前記第2撮像部の撮像条件を決定する請求項12に記載の監視方法
  15. 前記第1撮像部及び前記第2撮像部がそれぞれ撮像した動画に基づいて、前記全体監視領域の中の人物の顔の領域である顔領域を抽出する顔領域抽出段階と、
    前記顔領域抽出段階において抽出された顔領域の明るさを判断する顔領域明るさ判断段階と
    をさらに備え、
    前記特徴領域特定段階において、前記全体監視領域に複数の人物領域が存在する場合には、前記顔領域明るさ判断段階において判断された明るさが予め定められた範囲内の明るさである人物の人物領域を特定し、
    前記撮像条件決定段階において、前記特徴領域特定段階において特定された人物領域が含まれる前記第1撮像部もしくは前記第2撮像部が撮像した画像に基づいて、前記第1撮像部及び前記第2撮像部の撮像条件を決定する
    請求項14に記載の監視方法。
  16. 前記撮像条件決定段階において決定された撮像条件に基づいて前記第1撮像部及び前記第2撮像部に動画を撮像させる撮像制御段階をさらに備える請求項12から請求項15のいずれか1つに記載の監視方法。
  17. 第1監視領域の動画を撮像する第1撮像部から読み出された1画像と、前記第1撮像部による前記第1監視領域の撮像動作に同期して、前記第1監視領域に隣接する第2監視領域の動画を撮像する第2撮像部から読み出された2画像とに画像処理を施す画像処理部と、
    前記第1撮像部及び前記第2撮像部がそれぞれ撮像した動画に基づいて、前記第1監視領域及び前記第2監視領域を含む全体監視領域の中の動きがある領域である動き領域を特徴領域として特定する特徴領域特定部と、
    前記第1撮像部もしくは第2撮像部が撮像した前記特徴領域特定部が特定した動き領域が含まれる画像に基づいて、前記第1撮像部及び前記第2撮像部の撮像条件とを一致させるよう前記第1撮像部及び前記第2撮像部の撮像条件を決定する撮像条件決定部と、
    前記第1監視領域と前記第2監視領域との相対的な位置関係に基づいて、前記画像処理部が画像処理を施した前記第1画像及び前記第2画像の合成位置を調整して合成画像を生成する合成画像生成部と、
    前記合成画像生成部が生成した前記合成画像を、前記第1監視領域及び前記第2監視領域の少なくとも一部を含む監視領域の動画を構成する画像として格納する動画格納部、としてコンピュータを機能させるプログラム。
  18. 前記特徴領域特定部は、前記全体監視領域に複数の動き領域が存在する場合には、動きが最も大きい動き領域を特定し、
    前記撮像条件決定部は、前記特徴領域特定部が特定した動き領域が含まれる前記第1撮像部もしくは前記第2撮像部が撮像した画像に基づいて、前記第1撮像部及び前記第2撮像部の撮像条件を決定する請求項17に記載のプログラム。
  19. 前記特徴領域特定部は、前記第1撮像部及び前記第2撮像部がそれぞれ撮像した動画に基づいて、人物が存在する領域である人物領域を特徴領域として特定し、
    前記撮像条件決定部は、前記特徴領域特定部が特定した人物領域が含まれる前記第1撮像部もしくは前記第2撮像部が撮像した画像に基づいて、前記第1撮像部及び前記第2撮像部の撮像条件を決定する請求項17に記載のプログラム。
  20. 前記第1撮像部及び前記第2撮像部がそれぞれ撮像した動画に基づいて、前記全体監視領域の中の人物の顔の領域である顔領域を抽出する顔領域抽出部と、
    前記顔領域抽出部が抽出した顔領域の明るさを判断する顔領域明るさ判断部と
    してさらにコンピュータを機能させ、
    前記特徴領域特定部は、前記全体監視領域に複数の人物領域が存在する場合には、前記顔領域明るさ判断部が判断した明るさが予め定められた範囲内の明るさである人物の人物領域を特定し、
    前記撮像条件決定部は、前記特徴領域特定部が特定した人物領域が含まれる前記第1撮像部もしくは前記第2撮像部が撮像した画像に基づいて、前記第1撮像部及び前記第2撮像部の撮像条件を決定する請求項19に記載のプログラム。
  21. 前記撮像条件決定部が決定した撮像条件に基づいて前記第1撮像部及び前記第2撮像部に動画を撮像させる撮像制御部としてさらにコンピュータを機能させる請求項17から請求項20のいずれか1つに記載のプログラム。
  22. 第1監視領域の動画を撮像する第1撮像部から読み出された第1画像の第1監視領域と前記第1撮像部による前記第1監視領域の撮像動作に同期して、前記第1監視領域に隣接する第2監視領域の動画を撮像する第2撮像部から読み出された第2画像の第2監視領域との相対的な位置関係に基づいて、前記第1撮像部及び前記第2撮像部がそれぞれ撮像した動画を構成する1画像及び第2画像の合成位置を調整して合成画像を生成する合成画像生成部と、
    前記合成画像生成部が生成した前記合成画像を解析することによって、前記合成画像の中の特徴領域を特定する特徴領域特定部と、
    前記合成画像生成部が生成した前記合成画像から、前記特徴領域特定部が特定した特徴領域の画像である特徴領域画像をトリミングして抽出するトリミング部と、
    前記トリミング部が抽出した前記特徴領域画像を、前記第1監視領域及び前記第2監視領域の少なくとも一部を含む監視領域の動画を構成する画像として格納する動画格納部と
    を備
    前記特徴領域特定部は、前記合成画像生成部が生成した連続する複数の前記合成画像を解析することによって、前記合成画像の中の動きがある領域である動き領域または前記合成画像の中の人物が存在する領域である人物領域を特定し、
    前記トリミング部は、前記合成画像生成部が生成した前記合成画像から、前記特徴領域特定部が特定した前記動き領域の画像である動き領域画像または前記人物領域の画像である人物領域画像をトリミングして抽出し、
    前記動画格納部は、前記トリミング部が抽出した前記動き領域画像または前記人物領域画像を、前記監視領域の動画を構成する画像として格納する監視装置。
  23. 前記トリミング部は、前記合成画像生成部が生成した前記合成画像から、前記第1撮像部又は前記第2撮像部が撮像する前記第1画像又は前記第2画像と同一のアスペクト比の前記特徴領域画像をトリミングして抽出し、
    前記動画格納部は、前記トリミング部が抽出した前記特徴領域画像を、前記監視領域の動画を構成する画像として格納する
    請求項22に記載の監視装置
  24. 前記トリミング部は、前記合成画像生成部が生成した前記合成画像から、外部の画像再生装置が再生する動画を構成する画像と同一のアスペクト比の前記特徴領域画像をトリミングして抽出し、
    前記動画格納部は、前記トリミング部が抽出した前記特徴領域画像を、前記監視領域の動画を構成する画像として格納する
    請求項22に記載の監視装置
  25. 前記トリミング部が抽出した複数の前記特徴領域画像を、動画を構成する画像として動画圧縮する動画圧縮部
    をさらに備え、
    前記動画格納部は、前記動画圧縮部が圧縮した前記複数の特徴領域画像を、前記監視領域の動画を構成する画像として格納する
    請求項23又は24に記載の監視装置
  26. 前記第1撮像部が有する複数の受光素子から読み出された第1画像と、前記第2撮像部が有する複数の受光素子から読み出された第2画像とに交互に画像処理を施す画像処理部
    をさらに備える請求項22から25のいずれか1つに記載の監視装置。
  27. 前記画像処理部は、
    前記第1撮像部が有する複数の受光素子から読み出された前記第1画像と、前記第2撮像部が有する複数の受光素子から読み出された前記第2画像とを交互にデジタルデータに変換するAD変換部
    を有し、
    前記合成画像生成部は、前記AD変換部によってデジタルデータに変換された前記第1画像と前記第2画像との合成位置を調整して前記合成画像を生成する
    請求項26に記載の監視装置
  28. 前記画像処理部は、
    前記第1撮像部が有する複数の受光素子から読み出された前記第1画像の画像データと、前記第2撮像部が有する複数の受光素子から読み出された前記第2画像の画像データとを交互に表示用画像データに変換する画像データ変換部
    を有し、
    前記合成画像生成部は、前記画像データ変換部によって表示用画像データに変換された前記第1画像と前記第2画像との合成位置を調整して前記合成画像を生成する
    請求項26に記載の監視装置
  29. 第1監視領域の動画を撮像する第1撮像部から読み出された第1画像の第1監視領域と前記第1撮像部による前記第1監視領域の撮像動作に同期して、前記第1監視領域に隣接する第2監視領域の動画を撮像する第2撮像部から読み出された第2画像の第2監視領域との相対的な位置関係に基づいて、前記第1撮像部及び前記第2撮像部がそれぞれ撮像した動画を構成する第1画像及び第2画像の合成位置を調整して合成画像を生成する合成画像生成段階と、
    前記合成画像生成段階において生成された前記合成画像を解析することによって、前記合成画像の中の特徴領域を特定する特徴領域特定段階と、
    前記合成画像生成段階において生成された前記合成画像から、前記特徴領域特定段階において特定された特徴領域の画像である特徴領域画像をトリミングして抽出するトリミング段階と、
    前記トリミング段階において抽出された前記特徴領域画像を、前記第1監視領域及び前記第2監視領域の少なくとも一部を含む監視領域の動画を構成する画像として格納する動画格納段階と
    を備え
    前記特徴領域特定段階において、前記合成画像生成段階において生成された連続する複数の前記合成画像を解析することによって、前記合成画像の中の動きがある領域である動き領域または前記合成画像の中の人物が存在する領域である人物領域を特定し、
    前記トリミング段階において、前記合成画像生成段階において生成された前記合成画像から、前記特徴領域特定段階において特定された前記動き領域の画像である動き領域画像または前記人物領域の画像である人物領域画像をトリミングして抽出し、
    前記動画格納段階において、前記トリミング段階において抽出された前記動き領域画像または前記人物領域画像を、前記監視領域の動画を構成する画像として格納する監視方法。
  30. 前記第1撮像部が有する複数の受光素子から読み出された第1画像と、前記第2撮像部が有する複数の受光素子から読み出された第2画像とに交互に画像処理を施す画像処理段階
    をさらに備える請求項29に記載の監視方法。
  31. 第1監視領域の動画を撮像する第1撮像部から読み出された第1画像の第1監視領域と前記第1撮像部による前記第1監視領域の撮像動作に同期して、前記第1監視領域に隣接する第2監視領域の動画を撮像する第2撮像部から読み出された第2画像の第2監視領域との相対的な位置関係に基づいて、前記第1撮像部及び前記第2撮像部がそれぞれ撮像した動画を構成する1画像及び第2画像の合成位置を調整して合成画像を生成する合成画像生成部と、
    前記合成画像生成部が生成した前記合成画像を解析することによって、前記合成画像の中の特徴領域を特定する特徴領域特定部と、
    前記合成画像生成部が生成した前記合成画像から、前記特徴領域特定部が特定した特徴領域の画像である特徴領域画像をトリミングして抽出するトリミング部と、
    前記トリミング部が抽出した前記特徴領域画像を、前記第1監視領域及び前記第2監視領域の少なくとも一部を含む監視領域の動画を構成する画像として格納する動画格納部、
    としてコンピュータを機能させ、
    前記特徴領域特定部は、前記合成画像生成部が生成した連続する複数の前記合成画像を解析することによって、前記合成画像の中の動きがある領域である動き領域または前記合成画像の中の人物が存在する領域である人物領域を特定し、
    前記トリミング部は、前記合成画像生成部が生成した前記合成画像から、前記特徴領域特定部が特定した前記動き領域の画像である動き領域画像または前記人物領域の画像である人物領域画像をトリミングして抽出し、
    前記動画格納部は、前記トリミング部が抽出した前記動き領域画像または前記人物領域画像を、前記監視領域の動画を構成する画像として格納する、
    プログラム。
  32. 前記第1撮像部が有する複数の受光素子から読み出された第1画像と、前記第2撮像部が有する複数の受光素子から読み出された第2画像とに交互に画像処理を施す画像処理部
    としてさらにコンピュータを機能させる請求項31に記載のプログラム。
JP2006085709A 2006-03-27 2006-03-27 監視装置、監視方法、及びプログラム Expired - Fee Related JP4464360B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2006085709A JP4464360B2 (ja) 2006-03-27 2006-03-27 監視装置、監視方法、及びプログラム
US11/723,659 US20070222858A1 (en) 2006-03-27 2007-03-21 Monitoring system, monitoring method and program therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006085709A JP4464360B2 (ja) 2006-03-27 2006-03-27 監視装置、監視方法、及びプログラム

Publications (3)

Publication Number Publication Date
JP2007266713A JP2007266713A (ja) 2007-10-11
JP2007266713A5 JP2007266713A5 (ja) 2009-10-22
JP4464360B2 true JP4464360B2 (ja) 2010-05-19

Family

ID=38532951

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006085709A Expired - Fee Related JP4464360B2 (ja) 2006-03-27 2006-03-27 監視装置、監視方法、及びプログラム

Country Status (2)

Country Link
US (1) US20070222858A1 (ja)
JP (1) JP4464360B2 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4853707B2 (ja) * 2006-07-21 2012-01-11 カシオ計算機株式会社 撮像装置及びそのプログラム
JP2009049979A (ja) * 2007-07-20 2009-03-05 Fujifilm Corp 画像処理装置、画像処理方法、画像処理システム、及びプログラム
JP5062054B2 (ja) * 2008-06-19 2012-10-31 富士ゼロックス株式会社 画像処理装置および画像処理プログラム
JP4513905B2 (ja) * 2008-06-27 2010-07-28 ソニー株式会社 信号処理装置、信号処理方法、プログラム及び記録媒体
JP2011180750A (ja) * 2010-02-26 2011-09-15 Toshiba Corp 画像処理装置及び画像処理方法
JP4787906B1 (ja) * 2010-03-30 2011-10-05 富士フイルム株式会社 撮像装置、方法およびプログラム
KR20120038764A (ko) * 2010-10-14 2012-04-24 한국전자통신연구원 영상 인식 방법 및 영상 인식 장치
EP2838268B1 (en) * 2013-07-31 2019-02-20 Axis AB Method, device and system for producing a merged digital video sequence
JP5804007B2 (ja) * 2013-09-03 2015-11-04 カシオ計算機株式会社 動画生成システム、動画生成方法及びプログラム
JP6176073B2 (ja) * 2013-11-14 2017-08-09 株式会社リコー 撮影システム及びプログラム
KR101932547B1 (ko) 2014-10-23 2018-12-27 한화테크윈 주식회사 카메라 시스템 및 이의 영상 정합 방법
EP3285476A4 (en) * 2015-04-14 2018-09-19 Sony Corporation Image processing device, image processing method, and image processing system
KR101781172B1 (ko) 2016-07-28 2017-09-25 동국대학교 산학협력단 영상 정합 장치 및 방법
US11055834B2 (en) 2017-08-29 2021-07-06 Nec Corporation Information processing device, information processing method, and recording medium for processing synthesized images
CN111274910B (zh) * 2020-01-16 2024-01-30 腾讯科技(深圳)有限公司 场景互动方法、装置及电子设备

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10304234A (ja) * 1997-04-24 1998-11-13 Sony Corp 撮像システム、及びビデオカメラ装置
US7023913B1 (en) * 2000-06-14 2006-04-04 Monroe David A Digital security multimedia sensor
US20040075738A1 (en) * 1999-05-12 2004-04-22 Sean Burke Spherical surveillance system architecture
US7612796B2 (en) * 2000-01-13 2009-11-03 Countwise, Llc Video-based system and method for counting persons traversing areas being monitored
US7940299B2 (en) * 2001-08-09 2011-05-10 Technest Holdings, Inc. Method and apparatus for an omni-directional video surveillance system
US7224382B2 (en) * 2002-04-12 2007-05-29 Image Masters, Inc. Immersive imaging system
US7916897B2 (en) * 2006-08-11 2011-03-29 Tessera Technologies Ireland Limited Face tracking for controlling imaging parameters

Also Published As

Publication number Publication date
JP2007266713A (ja) 2007-10-11
US20070222858A1 (en) 2007-09-27

Similar Documents

Publication Publication Date Title
JP4464360B2 (ja) 監視装置、監視方法、及びプログラム
JP4794938B2 (ja) 監視システム、監視装置、監視方法、及びプログラム
US20220109818A1 (en) Digital camera system for recording, editing and visualizing images
US6704042B2 (en) Video processing apparatus, control method therefor, and storage medium
KR101000605B1 (ko) 촬상 장치, 화상 기록 장치 및 화상 기록 방법
US8000558B2 (en) Thumbnail generating apparatus and image shooting apparatus
JP3870124B2 (ja) 画像処理装置及びその方法、並びにコンピュータプログラム及びコンピュータ可読記憶媒体
US20050231628A1 (en) Image capturing apparatus, control method therefor, program, and storage medium
US9071738B2 (en) Integrated broadcast and auxiliary camera system
US8681239B2 (en) Image capturing device, image capturing method, program, and integrated circuit
US20060093224A1 (en) Image capturing apparatus and image distributing system
CN105827935A (zh) 一种终端截图的方法及终端
TW201319724A (zh) 影像處理裝置、影像處理方法及記錄媒體
KR101280443B1 (ko) 영역 영상을 처리하는 장치 및 그 제어방법
JP2005175970A (ja) 撮像システム
JPH11308608A (ja) 動画像生成方法,動画像生成装置及び動画像呈示装置
US8269858B2 (en) Image pickup device, image pickup method, and integrated circuit
JP2008172395A (ja) 撮像装置、画像処理装置、方法およびプログラム
JP2004228711A (ja) 監視装置及び方法、プログラム並びに監視システム
CN116208851A (zh) 图像处理方法及相关装置
JP2011101161A (ja) 撮像装置、その制御方法、再生装置およびプログラム
JP2007324663A (ja) ビデオカメラ
JP3538324B2 (ja) 電子スチルカメラ、電子スチルカメラの動画撮影方法、およびコンピュータが実行可能なプログラムを格納した記録媒体
JP6564295B2 (ja) 合成画像作成装置
WO2015104780A1 (ja) 映像撮像装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080715

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090903

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20090903

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20090915

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100216

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100218

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130226

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4464360

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140226

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees