JP4870803B2 - ビデオモーション検出方法 - Google Patents

ビデオモーション検出方法 Download PDF

Info

Publication number
JP4870803B2
JP4870803B2 JP2009223561A JP2009223561A JP4870803B2 JP 4870803 B2 JP4870803 B2 JP 4870803B2 JP 2009223561 A JP2009223561 A JP 2009223561A JP 2009223561 A JP2009223561 A JP 2009223561A JP 4870803 B2 JP4870803 B2 JP 4870803B2
Authority
JP
Japan
Prior art keywords
images
bits
pixel
motion detection
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009223561A
Other languages
English (en)
Other versions
JP2010079910A (ja
Inventor
アルムブラド ヨハン
Original Assignee
アクシス アーベー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アクシス アーベー filed Critical アクシス アーベー
Publication of JP2010079910A publication Critical patent/JP2010079910A/ja
Application granted granted Critical
Publication of JP4870803B2 publication Critical patent/JP4870803B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)

Description

本開示は、ビデオ分析に関し、特にビデオ内のモーションを検出する方法、コンピュータプログラム及びカメラに関する。
ビデオ分析は、デスクトップコンピュータシステムにおいてビデオを符号化し、そして復号化する操作以外の操作として行なわれようになっている。ビデオ分析は、静止画像及びビデオ画像のコンテンツを分析する手法であり、そして正しいフレームレート、解像度などを導出する操作以外の操作として使用される。ビデオ分析では、画像及びビデオが、画像(群)に含まれるアイテムのモーションのようなコンテンツに関して分析される。多くの場合、ビデオのうちの注目されない部分を廃棄するとともに、他の部分を詳細に分析して、モーションのような関連情報を抽出する。
詳細には、モーション検出では、ビデオシーケンスに含まれ、かつ画像空間内で動いている画像の空間領域を同定する。この操作では、例えば揺れている木、及び動いている影を同定することができるが、照明の変化、または画像のノイズを同定することはできない。モーション検出の問題は、全ての先行フレーム内で静止しているビデオの領域が急に、一つのフレームから次のフレームに移行するときに動くような状況によって一層複雑になる。逆の問題も起こり得る、すなわち多くのフレームにおいて動いている領域が急に停止する可能性がある。
現時点で利用することができる多くのモーション検出方法及びシステムでは、モーションではなく、変化を検出する。これらの方法では単に、フレーム間における、または現フレームと一連の先行フレームとの間における画像の一つの領域の差をサーチするに過ぎない。例えば、背景減算法では、背景または基準画像を、ビデオに含まれる一連の先行フレームから、例えば無限インパルス応答(Infinite Impulse Response:IIR)フィルタを使用して作成する。次に、検出を一つの閾値を現画像と当該背景または当該基準画像との絶対値差に適用することにより行なう。当該閾値は、簡単なバイナリ関数とすることができ、このバイナリ関数では、結果は、差が閾値を超える場合に「1」となり、そして他の場合には「0」となる。
他の方法では、背景のモデル化を、例えば平均及び分散値を有するガウス分布を使用して試みる。ガウス混合モデルでは、各ピクセルを幾つかのガウス分布で表わし、そして各ガウス分布に、当該分布の分散及び当該分布が何回観察されるかに基づいて重み付けする。ピクセルの重みが小さくなって所定の閾値を下回るということがない場合に、背景モデル内に収まることがないピクセルは、モーション情報を含む可能性のある前景ピクセルであると考えられる。
本願発明者が認識しているように、変化を検出する方法、及び背景画像のモデル化を試みる方法はともに、照明の変化の影響を非常に受け易い。これらの方法ではどうしても、個々のピクセルを処理しながら、「真の」画像変化と照明の影響との違いを見分けるということができない。
更に、本願発明者が認識していることであるが、普通、動いている画像領域の速度を決定する、オプティカルフローのような2つの連続する画像のみを比較することにより行なわれるモーション推定方法は、非常に大きな計算能力を必要とする、不正確である、または非常に大きな計算能力を必要とし、かつ不正確である。2つよりも多くの連続する画像を分析する場合には、必要とされる計算能力は極めて大きくなるために、実用面では役に立たない。
現在利用することができるほとんどの空間−時間フィルタは、画像を個々に分析し、そしてこれらのフィルタは、高レベルモデルを使用して、時間的な変化を処理し、そしてビデオを空間的かつ時間的に同時に処理する幾つかの空間−時間アルゴリズムは、極めて大きい計算能力を必要とするので、リアルタイムな埋め込み処理を行なうことができない。
これまでの説明を鑑みて、本開示の目的は、モーションを、大きな照明の変化が生じている環境の中に正しく同定し、そして同定する操作を効率的に行なうことができるビデオモーション検出方法、コンピュータプログラム及びカメラを提供することにある。
例示的なビデオモーション検出方法では、一つのビデオの複数の画像を合成して、一つの画像ボリュームとする。複数の画像の各画像は複数のピクセルを含み、そして当該画像ボリュームは、幅に対応する次元X、高さに対応する次元Y及び奥行きに対応する次元tを有する。形成された後、当該画像ボリュームを(X、t)平面に沿ってスライスし、そして対数変換を適宜、各ピクセルに対して行なって、反射率成分を照明光成分から分離する。
次に、空間−時間フィルタをスライスされた画像ボリュームに適用して、フィルタリング結果を生成する。フィルタリングの後、フィルタリング結果の絶対値を閾値関数と比較して、明確な空間−時間エッジを含むバイナリ画像を生成する。最後に、当該バイナリ画像をピクセル群の少なくとも一つの連結ストリングに関してサーチする。複数の軸のうちのどの軸にも平行ではないピクセル群の連結ストリングがモーションを表わしている。
本発明に対する、そして本発明に付随する利点の多くに対する更に完全な理解は、以下の詳細な説明を添付の図面に関連付けて考察しながら参照することにより本発明及び利点を一層深く理解することができるようになるので容易に得られると思われる。
本発明の一つの実施形態によるネットワークカメラのブロック図である。 本開示の例示的な実施形態による監視センターコンピュータ、またはクライアントコンピュータのブロック図である。 本発明の一つの実施形態による監視システムのブロック図である。 画像をビデオシーケンスから収集する例である。 本開示の例示的な実施形態によるスライスされた画像ボリュームである。 本開示の例示的な実施形態によるスライスされた画像ボリュームであり、この画像ボリュームは、空間−時間フィルタでフィルタリングされている。 本開示の例示的な実施形態によるスライスされた画像ボリュームであり、この画像ボリュームには、閾値がフィルタリング後に適用されている。 本開示の例示的な実施形態によるラスタライズして得られる一連のサーチラインである。 本開示の例示的な実施形態によるビデオモーション検出方法のフローチャートである。 本開示の例示的な実施形態による(X、t)平面におけるサーチのフローチャートである。 本開示の例示的な実施形態による(Y、t)平面におけるサーチのフローチャートである。
次に、同様の参照番号が同じ、または対応する構成要素を幾つかの図を通じて指している図面を参照する。図1は、本発明による、画像を撮影するために使用することができるネットワークカメラ10(またはIP−カメラ)のブロック図である。しかしながら、更に広い意味では、カメラ10は、画像シーケンスを生成し、そして画像シーケンスを、または例えば、画像メタデータのような画像シーケンスの画像データを、ネットワーク(専用、公衆、またはハイブリッド)を介してユーザクライアント(図3の51)に送信することができる、いずれのデジタルカメラとすることもできる。本文における「video」という用語は、従来の動画に限定されず、時間系列で(1フレーム/秒、1フレーム/2秒などのような)撮影される静止フレームも含む。ネットワークカメラ10は、この実施形態ではプロセッサ19上でソフトウェアプロセスとして実行されるものとして示されるローカルビデオ分析モジュール20を含む。しかしながら、ハードウェアモジュール、ファームウェアモジュール、またはハイブリッドモジュールを使用することもできる。
ネットワークカメラ10は、入射光を収集するレンズシステム12と、入射光を計測するイメージセンサ13、例えば電荷結合装置(CCD)、CMOS−センサ、または類似のセンサと、画像処理モジュール15(ハードウェアアプローチ、ソフトウェアアプローチ、またはハイブリッドアプローチで実装される)、画像/ビデオエンコーダ21と、例えばビデオ分析20を管理するCPU19と、メモリ17と、そしてネットワークインターフェース22と、を含む。イメージセンサ13は、赤外放射線を検出するIR−センサとすることもできる。画像/ビデオエンコーダ21は、撮影デジタル画像データを符号化して、連続するビデオシーケンス、制限されたビデオシーケンス、静止画像、またはストリーム化された画像/ビデオに対応する複数の公知の形式のうちのいずれか一つの形式にするように構成される。例えば、画像情報を符号化して、MPEG1形式、MPEG2形式、MPEG4形式、H.264形式、JPEG形式、M−JPEG形式、ビットマップ形式などにすることができる。
アナログ画像シーケンスを生成することができるアナログカメラ(図3に示す54)及びビデオサーバまたはビデオエンコーダのようなコンバータ57をネットワークカメラ10に使用する、またはネットワークカメラ10の代わりに使用することができる。コンバータは、アナログカメラ54からのアナログ画像シーケンスをデジタル画像シーケンスまたは画像データに変換し、そしてデジタル画像シーケンスまたは画像データをネットワークに供給する。この場合、ビデオ/画像符号化、及びローカル分析は、コンバータにおいて行なわれる。
図2は、本発明によるクライアントコンピュータまたは監視センターコンピュータの模式図である。コンピュータ130はコンピューティングデバイス100を含み、このコンピューティングデバイス100には、キーボード112、ポインティングデバイス111、ビデオ取得ユニット113、及びディスプレイ110が接続される。
コンピューティングデバイス100は、制御プロセスを実行し、そしてメインメモリ105と連動して、処理対象データの一時的な保存を行なうプロセッサ101と、そしてプロセッサ101が実行する命令を格納するROM106と、を含む。ディスクコントローラ107は、少なくとも一つのディスク108及びCD−ROM109を制御し、これらのディスク108及びCD−ROM109には、ビデオシーケンスを処理前後に保存することができる。ディスプレイコントローラ104を使用して外部ディスプレイ110を制御し、そしてI/Oインターフェースを使用して、キーボード112、ポインティングデバイス111及びビデオ取得ユニット113のような他の外部デバイスを制御する。バス103はこれらのコンポーネントの全てを相互接続する。
コンピューティングデバイス100は、例えばペンティアム(登録商標)プロセッサを搭載するPCとすることができる。ROM106に格納される命令セットは、オペレーティングシステムのユーティリティアプリケーション、バックグラウンドデーモン、またはコンポーネントとして、或いはVISTA、Unix(登録商標)、SOLARIS、LINUX、APPLE MAC−OS及びこの技術分野の当業者に公知の他のシステムのようなプロセッサ/オペレーティングシステムと連動して実行される上に挙げた要素の組み合わせとして提供することができる。
コンピューティングデバイス100のメインメモリ105は、PCに内蔵されるダイナミックまたはスタティックランダムアクセスメモリ(RAM)とすることができる、またはFLASH、EEPROM、光ディスク、サーバなどのような他のメモリデバイスとすることができる。更に、メインメモリ105の少なくとも一部は、ビデオモーション検出システムから取り外し可能とすることもできる。
ビデオモーション検出システムは、FPGA、ASIC、マイクロコントローラ、PLD、または他のこのような処理デバイス(プロセッサ)のようなハードウェアデバイスで実現することもできる。
ビデオ取得ユニット113の例として、ビデオカメラ、ビデオカセットレコーダ(VCR)、デジタル多用途ディスク(DVD)レコーダなどを挙げることができる。ポインティングデバイス111の例として、マウス、トラックボール、タッチパッドなどを挙げることができ、そしてディスプレイ110は、例えばビデオモニタとすることができる。
図3に示すように、ネットワークカメラ10は、プライベートネットワークを介して自律的に接続することができる、または公衆ネットワークを介して一つ以上のユーザクライアント51に離れた場所から接続することができる。ネットワークカメラのネットワークインターフェースによって、カメラとユーザクライアントとの間で、画像またはビデオだけでなく、パン/チルト/ズーム機構、オーディオ設定、画像設定、及びビデオ設定などの制御データの授受が可能になる。ユーザクライアント51は、例えば監視センター52、クライアントコンピュータ51とすることができる、またはネットワークビデオレコーダ(NVR)53は、カメラからの画像シーケンスを保存し、操作し、そして/または中継するサーバとすることができる。図3は、モニタリングカメラと相互作用することができる異なるユーザクライアントを示すために用いられる。ネットワークカメラは、一つよりも多くのユーザクライアントが、例えば画像及びビデオの提供を受けるために利用することができる。
モーション検出のようなビデオ分析アプリケーションは、ネットワークカメラ10またはアナログカメラ54で撮影した画像シーケンスの画像の分析に基づいて実行される。画像の分析は、ネットワークカメラにおいて、監視センター52において、クライアントコンピュータ51において、またはNVR53において実行することができる。しかしながら、ビデオ分析をネットワークカメラ10において、またはコンバータ57において実行すると有利であるが、その理由は、ビデオ分析を、ネットワークに、極めて大きな帯域を使用するトラフィックを流すことなく行なうことができるからである。従って、この利点は、ユーザが、ユーザに継続的に画像シーケンスを提供する状況に関心を持つことがないアプリケーションに特に関連して得られ、例えばカメラビューに何か変化があった場合にのみユーザに画像シーケンスを提供するアプリケーションにおいて得られる。ビデオ分析アプリケーションがネットワークカメラ10またはコンバータ57に搭載される場合、メタデータ、すなわち画像に関するデータ(例えば、画像シーケンスの内容を記述するデータのような)の抽出が可能になる。従って、カメラからユーザに転送される画像シーケンスは、メタデータに所定の条件の下で(例えば、アラームが発生しない場合に)置き換えることができる。画像シーケンスを継続的に送信することがないシステムを提供することにより、帯域を節約することができる、またはシステムのスケーラビリティを容易にすることができるが、その理由は、更に別のネットワークカメラをこのようなシステムに搭載することが一層容易になるからである。しかしながら、別の実施形態は、ビデオ分析を実行するクライアントコンピュータ51及び/又は監視センター52を有する。
次に、図1のビデオモーション検出システムで実行することができるビデオモーション検出方法について説明する。
図4は、例えばビデオモーション検出システムのビデオ取得ユニット113で撮影したビデオシーケンス200の収集画像201である。この非制限的な例では、ビデオシーケンス200に映っている対象には、人物202と、ジャケット204と、そして垂直柱203と、が含まれる。勿論、この技術分野の当業者が理解することができることであるが、本方法では、他の対象物を含む画像を処理することもできる。更に、これらの画像201は、直近の画像が他の画像の前面に表示されるように、または直近の画像が他の画像の全ての画像の後方に表示されるように配置することができる。
図4及び5では、ビデオシーケンス200のこれらの画像201を合成して、一つの画像ボリューム300を形成する。ビデオシーケンス200は、Nを3以上とする場合に、画像201 I、I、...、Iを含む。次に、画像ボリューム300を(X、t)平面に沿ってスライスして、2つの画像ボリューム部分301及び302を形成する。しかしながら、画像ボリューム300は、本開示の範囲から逸脱しない範囲で、(Y、t)平面に沿ってスライスすることもできる。
画像ボリューム301の上側部分は柱305と、人物303と、そして少なくとも1本の黒色水平ライン304(Y軸に平行な)と、を含む。柱305は静止しているので、t軸(すなわち時間軸)に平行なラインを形成する。しかしながら、人物303は、ビデオシーケンス200を取得している間に移動してしまっている。その結果、人物303は、いずれの軸にも平行とはならない曲線を画像ボリューム部分301の上側部分に沿って形成する。
黒色水平ライン304は照明の変化を表わす。例えば、ライン304は、照明を消した結果である。しかしながら、本願発明者が認識しているように、このような照明の変化は必ず、X軸またはY軸に平行であるので、モーションではなく照明の変化として容易に識別することができ、そして抑圧することができる。照明の変化のこのような抑圧は、差分検出法またはモーション推定法では行なうことができない。
画像ボリューム300をスライスして画像ボリューム部分301及び302とした後、対数変換を2つの画像ボリューム部分301及び302の各ピクセルに対して行なって、反射率成分及び照明光成分を分離する。任意であるが、照明光成分は、高帯域通過フィルタリングを画像ボリューム300のピクセル群に施すことにより抑圧することができる。
次に、画像ボリューム300を、空間−時間フィルタでフィルタリングして、図6の画像ボリューム400を生成する。空間−時間フィルタはエッジ強調フィルタである。従って、空間−時間フィルタで人物403及び柱404のエッジを強調する。
例えば、空間−時間フィルタリングは、3x3ソベル(Sobel)フィルタカーネルを使用して行なうことができる。更に、空間−時間フィルタリングは、米国特許出願第61/100,575号に記載される方法を使用して行なうこともでき、この特許出願では、シングルインストラクションマルチデータ(SIMD)命令を用いて、ピクセル当たりビット数を、フィルタリング処理全体を通じて一定に保持しながら複数のピクセルを同時に処理している。
空間−時間フィルタでフィルタリングした後、またはフィルタの一部として一緒に、閾値関数を画像ボリューム400のピクセル群に適用してデータ削減する。図7は、結果として得られる画像ボリューム500である。閾値関数はエッジを更に、各ピクセルをバイナリ表示することにより強調する。例えば、所定の閾値(例えば、≧50%階調値)を満たすピクセル群に値「1」(黒)を付与し、そして当該閾値を下回るピクセル群に値「0」(白)を付与する。画像ボリューム500では、人物503を定義するエッジは、柱504を定義するエッジと同じように、これらのエッジの周囲から明瞭に区別される。これにより、画像のサーチを以下に説明するように更に高い効率で行なうことができるが、その理由は、各ピクセルがこの時点で、「1」または「0」によってのみ表示されるからである。
図8は、(X、t)平面における画像部分600であり、この画像部分は、上に説明したように処理されている。ピクセル601は、この例では、スタートピクセルとして識別される。ピクセル601から、ラスタライズされたサーチライン602a、602b、603a、603b、604a及び604bが画像部分600のエッジまで延びる。サーチ処理では、ピクセルストリング群を、全てが値「1」を有する(すなわち、全てが黒である)サーチライン群に沿って識別する。ピクセルストリングを所定の長さ(サーチ対象の画像を直線的に横切って配置されるピクセル群の数、または3、5、8(図示の)または10ピクセルのような特定の数)とすることにより、本方法で当該ストリングを、モーションを表わしているとして識別する必要がある。例えば、一つのストリングは、サーチ対象の画像部分600と同じ長さとする必要があり、この長さは、この例では、最大8ピクセルである。しかしながら、これよりも短い、または長いストリングサイズを本実施形態において使用することもできる。更に、ストリングが1箇所で途切れているだけで十分、ストリングをアーチファクト、ノイズなどとして無視することができる。
サーチ対象の画像部分600のサイズによって、モーション識別の精度及びノイズ脆弱性が決まる。面積が小さい(一つの方向の3ピクセルまたは2ピクセルのような)場合、より肯定的な検出結果が得られる可能性が高くなるが、これらの検出結果は、相対的に長い検出ストリングよりも、ノイズによる劣化の影響を更に受け易くなる。相対的に大きい(例えば、一つの方向の8、9または10個の範囲のピクセルを有する領域)画像部分600は、ノイズ外乱の影響を受け難いが、この画像部分600からは、より少ない数の結果しか得られない。しかしながら、相対的に長く、かつ途切れのないストリングに対応する肯定的な検出結果は必ず、相対的に短いストリングよりも信頼性の高い検出情報を提供する。
更に、サーチライン(602a、602b、603a、603b、604a及び604b)に対応する角度は、或る範囲(例えば、30°乃至60°)で変化させることができるので、異なる速度のモーションを検出することができる。
図9は、上に説明したプロセスのフローチャートである。ステップS1では、ビデオシーケンス200の複数の画像201を合成して一つの画像ボリューム300とする。画像ボリューム300を(X、t)平面または(Y、t)平面のうちの一方の平面に沿ってステップS2でスライスする。画像ボリューム300にステップS3で対数変換を施し、そしてステップS4において、空間−時間フィルタでフィルタリングして、フィルタリング済み画像ボリューム400を生成する。閾値関数をフィルタリング済み画像ボリューム400にステップS5で適用し、そしてモーションの検出((X、t)または(Y、t)のいずれかにおける)をステップS6で行なう。スライシングの方向を(X、t)から(Y、t)に変え、そして(Y、t)から(X、t)に変えることにより、完全なモーション検出分析をビデオシーケンスに対して行なう。
図10は、スライス処理を(X、t)平面に沿って行なう場合の図9のステップS6において行なわれる検出のフローチャートである。S10では、値「1」を有するピクセルをスタートポイントとして選択する。位置(X+i、t+j)の隣接ピクセルを調査して、当該ピクセルの値が「1」または「0」のいずれであるかをステップS11で判断する。当該ピクセルの値が「1」である場合、このピクセルを新規のスタートポイントとしてステップS12で選択し、そして値「1」で識別された隣接ピクセル群の数を追跡し続けるカウンタをステップS13でインクリメントする。次に、ステップS11乃至S13を、サーチライン全体がサーチされるまで繰り返す。
インデックス変数i及びjを1または2だけインクリメントして、図8のサーチラインを引く。例えば、サーチライン602bは、iに対応するインクリメントが2であり、かつjに対応するインクリメントが1である場合に設定される。サーチライン603bは、i及びjの両方に対応するインクリメントが1である場合に設定され、他のサーチラインも同様にして設定される。しかしながら、i及びjに対応する他の値を用いて、異なる角度のサーチラインを引くことができる。
一旦、一つのサーチラインが完全にサーチされると、ステップS14において、値「1」を有する隣接ピクセル群の数を閾値と比較し、そしてこの数が閾値を超える場合、モーションがステップS15で検出される。しかしながら、この値が閾値を下回る場合、モーションは検出されない(ステップS16)。サーチをサーチライン毎に、全てのサーチラインがサーチされてしまうまで繰り返し、そして次に、実行をメインループに戻す。
図11は、(Y、t)方向のサーチプロセスのフローチャートである。上に説明した事例におけるように、値1を有するピクセルをスタートポイントとしてS20で選択する。次の隣接ピクセル(Y+i、t+j)を調査して、当該ピクセルの値が「1」または「0」のいずれであるかをステップS21で判断する。「1」であることによって、ピクセル(Y+i、t+j)を、次のスタートポイントとしてS22で選択し、そしてピクセルカウンタをステップS23でインクリメントする。一旦、一つのサーチラインが完全にサーチされてしまうと、ピクセルカウンタの値を閾値とステップS24で比較する。検出はS25において、この値が当該閾値を上回る場合に行なわれる。それ以外の場合、モーションは検出されない(S26)。ステップS21乃至S23を、当該サーチラインが完全にサーチされてしまうまで繰り返す。
(X、t)サーチの場合と同じように、i及びjの値を1または2とすることにより、図8のサーチラインを引くことができる。しかしながら、他の値を用いることもできる。一旦、全てのサーチラインが完全にサーチされてしまうと、制御はメインループに戻る。
上に説明したサーチを、画像エリアを拡大する同心円内で行なうことにより、精度を大きく下げることなく検出の可能性を高めることができる。軸X及びYで定義される2次元検出エリアがあると仮定する。サーチエリアには、多数の短い検出ストリング及び長い検出ストリングが存在する。エッジを効率的に検出する方法として、長い方の検出ストリングを、分析対象エリアに注目するために使用される「シード(seeds)」として使用することができる。更に、一旦、長い方のストリングが検出されると、当該長い方のストリングが、エッジが高い可能性で存在するという重大な発見となる。従って、一つのサーチ領域に長い検出ストリングを介して固定されると、長い検出ストリングの周りの円形エリアを、相対的に信頼度の低いサンプルに関してサーチすることができる。このサーチ方法を用いる理由は、長い方の検出ストリングが正確である可能性が高いので、実際のエッジを表わす可能性が高いからである。一つのエッジが高い信頼性でこのエリアにおいて検出されているので、当該エッジの他の部分が近傍のエリアに位置していると推測することが妥当する。つまり、検出エリアの更に遠く離れた孤立部分に位置する短い検出ストリングが、ノイズによる派生的な現象である可能性が高いので、実際のエッジが原因である可能性が高いとは言えない。
一つの実施形態では、本願発明者は、各ピクセルを1ビットで表わす利点を確認した。すなわち、検出範囲全体に亘る連続ラインは、検出エリア内の隣接する行を論理「積(AND)」演算することにより検出される。例えば、途切れのないストリング603bは、連続した「積(AND)」演算を異なるデータ行に対して(t方向に)実行することにより検出することができる。従って、単純なブール(Boolean)論理を用いて、途切れのない検出ストリングが、連続した「積(AND)」演算を実行することにより容易に識別される。同様に、一旦、検出ストリングがエリア600内に形成されると、十分な長さのいずれの単一ストリングの存在も、候補ストリングごとに論理「和(OR)」を行なうことにより確認することができる。従って、いずれか一つのストリングが存在する場合、「和(OR)」演算の結果は、十分な長さのストリングがエリア600内に存在し、従ってエッジが存在し、そしてピクセル601を含むことを示唆する。
本実施形態では、ピクセル当たり1ビットの割合で表現する手法について説明したが、ワード当たり複数ピクセルの割合で表現する、例えばワード当たり32ピクセルの割合で表現する手法を取り入れることも可能である。この事例では、並列サーチは、斜めのストリングに対してピクセル601から始まるようにして行なわれ、かつ当該ピクセル601の右側の31個のピクセルに対して、例えばx軸に沿って行なわれる。この事例では、並列サーチは、斜め方向に平行に行なわれる。ピクセル当たり複数ビットの割合で表現する手法には、更に複雑な算術演算が必要となるので、処理負荷が重くなることに留意されたい。
図8は直線ストリングを示しているが、必ずしも直線ではない他のラインパターンを用いてモーションを検出することもできる。このような他のパターンとして、一つ以上の斜め線分を含む部分斜めライン、及び屈曲ラインを挙げることができる。
別の実施形態では、サーチ手順は、全てのピクセルに対して(X、Y)平面において、並行して同時に行なわれる。画像ボリューム500内の直近のエッジ画像からスタートして、次の画像との論理「積(AND)」を取り、次の画像はサーチラインに沿って変換され、次に最初の「積(AND)」演算の結果と、「積」演算を使用して論理比較されている。次に、この手順を繰り返して、所定の長さのピクセル群に対して実行する。サーチ手順は、異なる方向を有する異なるサーチラインに対して繰り返される。論理「和(OR)」演算を異なるサーチ方向の間で使用して、モーションが特定のスタートピクセルから始まるこれらのサーチラインのうちのいずれか一つのサーチラインに検出されるかどうかを判断する。このサーチ手順は、X方向の並進移動、及びY方向の並進移動の両方に対して行なうことができる。このサーチ手順を使用すると、明示的なスライスステップS2を、図9に示すプロセスにおいて行なう必要はないが、その理由は、スライス処理が本来、検出ステップS6において行なわれるからである。
上に説明した方法は、コンピュータプログラムとして実行することもできる、例えばコンピュータ読み取り可能な媒体に格納されるコンピュータ読み取り可能な命令の形式で実行することもできる。
従来のビデオモーション検出方法は、大きな計算負荷を必要とし、照明の変化に対して不正確である、または照明の変化の影響を受け易い。しかしながら、ビデオシーケンスを合成して一つの画像ボリュームとすることができ、そして(X、t)平面または(Y、t)平面に沿ってスライスすることができる。本願発明者が認識しているように、このようなスライス位置におけるモーションが、どの軸(X、Y、t)にも平行ではない傾斜ラインとして、または曲線として現われるのに対し、照明の変化及び静止オブジェクトがこれらの軸のうちの一つの軸に平行なラインとして現われる。従って、本方法では、照明の変化を識別し、そして抑圧する、または無視することができる。
更に、本願発明者が認識しているように、ビデオシーケンスをラスタライズして得られるサーチラインに沿ってサーチすることにより、効率を現在の方法よりも高くすることができ、そしてこのサーチ自体が、エンベッデッドシステム上での実行に適するようになる。
明らかなことであるが、本発明の多数の変形及び変更が、上述の示唆を鑑みると可能である。従って、添付の請求項の技術範囲内で、本発明を本明細書に具体的に説明している形態以外の形態で実施することができることを理解されたい。

Claims (13)

  1. ビデオシーケンスの複数の画像を撮影するステップであって、複数の画像の各画像が複数のピクセルを含み、各ピクセルが第1のビット数によって表わされる、前記撮影するステップと;
    第1のビット数を、第1のビット数よりも少ない第2のビット数に削減するステップと;
    コンピュータ読み取り可能な媒体に、複数の画像を保存するステップと;
    複数の画像において、所定エリアの空間−時間領域内の空間−時間エッジをサーチして得るステップと;
    前記複数の画像における共通オブジェクトのモーションを検出し、一つの共通する値を前記所定エリア内に有する連結ピクセルストリング群を識別する工程と、エッジの存在を、連結ピクセル群から成る少なくとも一つのストリングが所定の長さよりも長い場合に確認する工程を含む、前記サーチ及び検出するステップと;
    を含むビデオモーション検出方法。
  2. 前記連結ストリングは直線斜め方向に配置される、請求項1記載のビデオモーション検出方法。
  3. 前記連結ストリングは直線斜めライン以外の所定のパターンに配置される、請求項1記載のビデオモーション検出方法。
  4. 前記削減するステップでは、第1のビット数をピクセル当たり1ビットに削減する、請求項1乃至3のいずれかに記載のビデオモーション検出方法。
  5. 更に、それぞれのピクセルを表わすビット群を、一つの共通するデータワードに詰めて、該データワードをプロセッサが単一の演算命令で処理することができるようにするステップを含む、請求項4記載のビデオモーション検出方法。
  6. 前記確認するステップでは、連結ピクセルストリング群の少なくとも一つが、少なくとも所定エリアの奥行きと同じ長さである場合にエッジを識別する、請求項1乃至5のいずれかに記載のビデオモーション検出方法。
  7. 前記サーチステップでは、隣接するピクセルを並行してサーチする、請求項1乃至6のいずれかに記載のビデオモーション検出方法。
  8. 前記比較するステップでは、論理「積(AND)」演算を、前記所定エリアにおける複数セットのピクセルに対して行ない;そして
    前記確認するステップでは、論理「和(OR)」演算を、前記所定エリア内の連結ピクセルストリング群に対して行なう、
    請求項1乃至7のいずれかに記載のビデオモーション検出方法。
  9. 前記削減するステップでは:
    対数変換を複数のピクセルに対して行なって、反射率成分を照明光成分から分離する、請求項1乃至8のいずれかに記載のビデオモーション検出方法。
  10. 該削減するステップは、空間−時間フィルタリングステップを含む、請求項1乃至9のいずれかに記載のビデオモーション検出方法。
  11. 該削減するステップでは、閾値演算を、前記空間−時間フィルタリングステップの結果の絶対値に対して行なう、請求項10記載のビデオモーション検出方法。
  12. コンピュータ読み取り可能な命令を含むコンピュータプログラムであって、命令をプロセッサが実行すると、コンピュータ読み取り可能な命令によってプロセッサが複数のステップを実行するようになり、これらのステップは:
    ビデオシーケンスの複数の画像を撮影するステップであって、複数の画像の各画像が複数のピクセルを含み、各ピクセルが、第1のビット数によって表わされる、前記撮影するステップと;
    第1のビット数を、第1のビット数よりも少ない第2のビット数に削減するステップと;
    コンピュータ読み取り可能な媒体に、複数の画像を保存するステップと;
    複数の画像において、所定エリアの空間−時間領域内の空間−時間エッジをサーチして得るステップと;
    前記複数の画像における共通オブジェクトのモーションを検出し、一つの共通する値を前記所定エリア内に有する連結ピクセルストリング群を識別する工程と、エッジの存在を、連結ピクセル群から成る少なくとも一つのストリングが所定の長さよりも長い場合に確認する工程を含む、前記サーチ及び検出するステップと;
    からなるビデオモーション検出コンピュータプログラム。
  13. 被写体を含むシーンからの光を捕捉するように構成される光学系セクションと;
    前記光をビデオシーケンスの複数の画像に変換するように構成されるセンサであって、複数の画像の各画像が複数のピクセルを含み、各ピクセルが、第1のビット数によって表わされる、前記センサと;
    第1のビット数を、第1のビット数よりも少ない第2のビット数に削減するように構成される画像プロセッサと;
    第2のビット数を1ピクセル当たりに有する複数の画像を保存するように構成されるメモリと;
    前記ピクセル群を複数の画像において、空間−時間領域で表わされる所定エリアの空間−時間エッジに関してサーチし、前記複数の画像における被写体のモーションを、一つの共通する値を前記所定エリア内に有する連結ピクセルストリング群を識別し、そしてエッジの存在を、連結ピクセル群から成る少なくとも一つのストリングが所定の長さよりも長い場合に確認することにより検出する、プロセッサと;
    を備えるように構成される、ビデオモーション検出カメラ。
JP2009223561A 2008-09-26 2009-09-28 ビデオモーション検出方法 Active JP4870803B2 (ja)

Applications Claiming Priority (8)

Application Number Priority Date Filing Date Title
US10057508P 2008-09-26 2008-09-26
US10057908P 2008-09-26 2008-09-26
US61/100,579 2008-09-26
US61/100,575 2008-09-26
US12/273,220 2008-11-18
US12/273,220 US8121424B2 (en) 2008-09-26 2008-11-18 System, computer program product and associated methodology for video motion detection using spatio-temporal slice processing
EP09152276.3 2009-02-06
EP20090152276 EP2172903B1 (en) 2008-09-26 2009-02-06 Video motion detection

Publications (2)

Publication Number Publication Date
JP2010079910A JP2010079910A (ja) 2010-04-08
JP4870803B2 true JP4870803B2 (ja) 2012-02-08

Family

ID=41665369

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009223561A Active JP4870803B2 (ja) 2008-09-26 2009-09-28 ビデオモーション検出方法

Country Status (6)

Country Link
US (1) US8121424B2 (ja)
EP (1) EP2172903B1 (ja)
JP (1) JP4870803B2 (ja)
KR (1) KR101223424B1 (ja)
CN (1) CN101685543B (ja)
TW (1) TWI405150B (ja)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110293173A1 (en) * 2010-05-25 2011-12-01 Porikli Fatih M Object Detection Using Combinations of Relational Features in Images
EP2455914B1 (en) 2010-11-18 2012-10-17 Axis AB Object counter and method for counting objects
TWI466068B (zh) * 2011-03-10 2014-12-21 Hon Hai Prec Ind Co Ltd 監控影像偵測系統及方法
AU2011201953B2 (en) * 2011-04-29 2013-09-19 Canon Kabushiki Kaisha Fault tolerant background modelling
EP2536143B1 (en) 2011-06-16 2015-01-14 Axis AB Method and a digital video encoder system for encoding digital video data
EP2549759B1 (en) 2011-07-19 2016-01-13 Axis AB Method and system for facilitating color balance synchronization between a plurality of video cameras as well as method and system for obtaining object tracking between two or more video cameras
WO2013091132A1 (en) * 2011-12-20 2013-06-27 Intel Corporation Automatic adjustment of display image using face detection
EP2608529B1 (en) 2011-12-22 2015-06-03 Axis AB Camera and method for optimizing the exposure of an image frame in a sequence of image frames capturing a scene based on level of motion in the scene
EP2838268B1 (en) 2013-07-31 2019-02-20 Axis AB Method, device and system for producing a merged digital video sequence
US9245187B1 (en) 2014-07-07 2016-01-26 Geo Semiconductor Inc. System and method for robust motion detection
US9378543B2 (en) * 2014-07-28 2016-06-28 Disney Enterprises, Inc. Temporally coherent local tone mapping of high dynamic range video
WO2016025485A2 (en) * 2014-08-14 2016-02-18 Qualcomm Incorporated Detection of action frames of a video stream
EP3185180B1 (en) 2014-10-23 2019-01-02 Axis AB Modification of at least one parameter used by a video processing algorithm for monitoring of a scene
KR102402678B1 (ko) 2015-03-18 2022-05-26 삼성전자주식회사 이벤트 기반 센서 및 프로세서의 동작 방법
US9672434B2 (en) * 2015-07-22 2017-06-06 Conduent Business Services, Llc Video-based system and method for parking occupancy detection
EP3300363B1 (en) 2015-12-15 2018-08-29 Axis AB A bit rate controller and a method for limiting output bit rate
CN106127810B (zh) * 2016-06-24 2019-08-20 广东紫旭科技有限公司 一种视频宏块角点光流的录播***图像跟踪方法和装置
EP3419283B1 (en) 2017-06-21 2022-02-16 Axis AB System and method for tracking moving objects in a scene
EP3419284A1 (en) 2017-06-21 2018-12-26 Axis AB System and method for tracking moving objects in a scene
CN108540195B (zh) * 2018-03-05 2019-01-08 杭州掌门物联科技有限公司 狭窄空间网络中继***及方法
WO2020153622A1 (en) 2019-01-25 2020-07-30 Samsung Electronics Co., Ltd. Apparatus and method for producing slow motion video
CN109945594A (zh) * 2019-03-22 2019-06-28 上海五宝网络科技有限公司 基于动态视频检测的智能视觉冰箱
CN114667534A (zh) * 2019-11-14 2022-06-24 华为技术有限公司 使用自注意力的图像处理

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3607717B2 (ja) 1993-07-28 2005-01-05 日本電信電話株式会社 映像切り出し方法
US5574762A (en) 1994-08-31 1996-11-12 Nippon Telegraph And Telephone Corp. Method and apparatus for directional counting of moving objects
JP3183320B2 (ja) 1994-08-31 2001-07-09 日本電信電話株式会社 移動物体方向別計数方法および装置
US6456328B1 (en) * 1996-12-18 2002-09-24 Lucent Technologies Inc. Object-oriented adaptive prefilter for low bit-rate video systems
US6560371B1 (en) * 1997-12-31 2003-05-06 Sarnoff Corporation Apparatus and method for employing M-ary pyramids with N-scale tiling
US6421466B1 (en) * 1999-09-29 2002-07-16 Neomagic Corp. Hierarchical motion estimation with levels of varying bit width for digital video compression
US6904159B2 (en) 2001-12-20 2005-06-07 Mitsubishi Electric Research Laboratories, Inc. Identifying moving objects in a video using volume growing and change detection masks
US20050259865A1 (en) * 2002-11-15 2005-11-24 Koninklijke Philips Electronics N.V. Object classification via time-varying information inherent in imagery
US6999600B2 (en) * 2003-01-30 2006-02-14 Objectvideo, Inc. Video scene background maintenance using change detection and classification
JP3775683B2 (ja) 2003-08-21 2006-05-17 松下電器産業株式会社 人物検出装置および人物検出方法
TWI286443B (en) * 2005-07-08 2007-09-01 Univ Nat Sun Yat Sen Motion detection system and method for TV frames
WO2008057107A2 (en) 2005-12-05 2008-05-15 University Of Maryland Method and system for object surveillance and real time activity recognition
JP4377887B2 (ja) 2006-03-30 2009-12-02 株式会社東芝 映像分割装置
CN100496100C (zh) * 2006-05-19 2009-06-03 深圳艾科创新微电子有限公司 一种对运动检测结果进行优化的方法
CN100518243C (zh) * 2007-01-31 2009-07-22 天津大学 采用运动检测和自适应加权滤波的去隔行装置
US8170278B2 (en) 2008-08-06 2012-05-01 Sri International System and method for detecting and tracking an object of interest in spatio-temporal space
US10057508B2 (en) 2013-06-20 2018-08-21 Excelitas Technologies Corp. Illumination device with integrated thermal imaging sensor

Also Published As

Publication number Publication date
CN101685543B (zh) 2014-06-18
TWI405150B (zh) 2013-08-11
TW201013578A (en) 2010-04-01
US20100080477A1 (en) 2010-04-01
JP2010079910A (ja) 2010-04-08
KR101223424B1 (ko) 2013-01-17
US8121424B2 (en) 2012-02-21
CN101685543A (zh) 2010-03-31
EP2172903B1 (en) 2015-04-29
KR20100035616A (ko) 2010-04-05
EP2172903A1 (en) 2010-04-07

Similar Documents

Publication Publication Date Title
JP4870803B2 (ja) ビデオモーション検出方法
KR101942808B1 (ko) 객체 이미지 인식 dcnn 기반 cctv 영상분석장치
AU2012340862B2 (en) Geographic map based control
CN104966304B (zh) 基于卡尔曼滤波与非参数背景模型的多目标检测跟踪方法
JP7101805B2 (ja) ビデオ異常検出のためのシステム及び方法
US20170004629A1 (en) Low-complexity motion detection based on image edges
JP4764172B2 (ja) 画像処理による移動体候補の検出方法及び移動体候補から移動体を検出する移動体検出方法、移動体検出装置及び移動体検出プログラム
JP2010009134A (ja) 画像処理システム及び画像処理方法、並びに、プログラム
KR102127276B1 (ko) 복수의 고해상도 카메라들을 이용한 파노라마 영상 감시 시스템 및 그 방법
KR101062225B1 (ko) 감시 카메라를 이용한 지능형 영상 검색 방법 및 시스템
JP6668514B1 (ja) ディープランニング基盤陰影映像の時空間的な特性分析を活用した暴力検出用フレームワーキング方法およびその装置
KR101861245B1 (ko) 멀티 센서 cctv 파노라마 영상에서 움직임 검출 시스템 및 방법
JP2010204860A (ja) 映像監視システム
JP7125843B2 (ja) 障害検知システム
KR101917622B1 (ko) 배경모델링 기법을 이용한 영상 내 누수 감지 방법
Tsesmelis et al. Tamper detection for active surveillance systems
CN110855932B (zh) 基于视频数据的报警方法、装置、电子设备及存储介质
US20230188679A1 (en) Apparatus and method for transmitting images and apparatus and method for receiving images
TW201426664A (zh) 攝影機異常種類辨識方法及可偵測攝影異常的監視主機
AlGhamdi et al. Automatic motion tracking of a human in a surveillance video
Latzel et al. People tracking using robust motion detection and estimation
Latzel et al. A robust motion detection and estimation filter for video signals
EP4195166A1 (en) Apparatus and method for transmitting images and apparatus and method for receiving images
Suradkar et al. Automatic surveillance using motion detection
JP2010101073A (ja) 崩落検知システムおよび方法

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110408

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110415

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110714

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111026

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111117

R150 Certificate of patent or registration of utility model

Ref document number: 4870803

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141125

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250