JP4699564B2 - 視覚背景抽出器 - Google Patents

視覚背景抽出器 Download PDF

Info

Publication number
JP4699564B2
JP4699564B2 JP2010515449A JP2010515449A JP4699564B2 JP 4699564 B2 JP4699564 B2 JP 4699564B2 JP 2010515449 A JP2010515449 A JP 2010515449A JP 2010515449 A JP2010515449 A JP 2010515449A JP 4699564 B2 JP4699564 B2 JP 4699564B2
Authority
JP
Japan
Prior art keywords
background
history
pixel
image
pixel value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010515449A
Other languages
English (en)
Other versions
JP2010532898A (ja
Inventor
ヴァン・ドローヘンブルーク、マルク
バルニヒ、オリヴィエ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Universite de Liege
Original Assignee
Universite de Liege
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Universite de Liege filed Critical Universite de Liege
Publication of JP2010532898A publication Critical patent/JP2010532898A/ja
Application granted granted Critical
Publication of JP4699564B2 publication Critical patent/JP4699564B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/28Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Burglar Alarm Systems (AREA)
  • Bidet-Like Cleaning Device And Other Flush Toilet Accessories (AREA)
  • Medicines Containing Plant Substances (AREA)
  • Image Processing (AREA)

Description

本発明は、撮像装置によってキャプチャされてそれぞれが複数のピクセルのセットによって形成される複数の関連画像の中から選択された画像内の背景を検出する方法に関する。
コンピュータビジョンにおける主要な研究分野の1つは、ビデオシーケンス内のモーショントラッキングの分野である。モーショントラッキングの目的は、シーン内の物体の動きを抽出することと、場合によっては上記シーンの画像を生成する撮像装置の動きを抽出することである。人間の眼と脳はこの種類の作業を容易に実行するが、これはコンピュータビジョンにおいては解決が困難な問題であり、以下のようないくつかの課題を含む。
− 動いている物体を静止背景又は疑似静止背景から分離すること。疑似静止背景は、撮像装置の動きに起因する僅かな見かけ上の動きを有する背景として定義される。
− 遮蔽問題(occlusion problem)を解決すること。遮蔽問題は、一時的に少なくとも部分的に視界から消えた物体を再特定することを含む。
− いわゆるゴースト物体(ghost object)をなくすこと。ゴースト物体は、画像シーケンスの最初の画像フレーム内に存在する実際には物体であるものが、誤って背景の一部であるとみなされる結果として生じる。
− 影効果(shadow effect)を特定及び除去すること。
ビデオシーケンスは、時間的に連続してキャプチャされる複数の画像Iから成るシーケンスによって形成される。各画像Iは、複数の画素、すなわちピクセルを含み、画像内の各単一のピクセルは、画像内の位置x及びピクセル値I(x)を有する。位置xは任意の数の次元を有することができる。3次元位置を有するピクセルは、3D画像化の領域においては(「体積要素」に対する)「ボクセル」としても既知であるが、本明細書全体を通して、ピクセルという表現はこのような「ボクセル」も含むものとしても理解されるものとする。したがって、画像は従来の2次元画像でもよいが、3D画像及び/又はマルチスペクトル画像でもよい。この位置xは有限領域に制限されてもよいし、されなくてもよい。たとえば、衛星搭載カメラのように動いている撮像装置によってキャプチャされる画像の場合は、位置xは有限領域には制限されない。画像のタイプに応じて、ピクセル値I(x)は、単色画像の場合のようにスカラーであってもよいし、赤緑青(RGB)成分ビデオ画像或いは色相飽和値(HSV)画像のような多色画像の場合のように多次元であってもよい。
一般に、動いている物体を背景から分離するステップは、背景除去と称される。背景除去は、各画像内においてどのピクセルが背景に属するかを認識することと、それらのピクセルを画像から除去することとを含む。
背景除去は、医用画像形成システムのような他の用途においても使用される。医用画像を、別の患者の同じ領域の画像を使用して生成される背景と比較して、病的状態を指示する可能性のある外れ値(outlier)を示すことができる。
効率的であるために、背景除去技法は以下のようであるべきである。
− ユニバーサルである。すなわち、あらゆるタイプのビデオシーケンスを取り扱うことができる。
− ノイズに対してロバストである。
− 単純である。単純な技法は実装するのがより容易であり、シーン内容に応じて必要なパラメータ調整が少なくてすむためである。
− 高速である。計算量が可能な限り少ないことを含む。
− 形状検出が正確である。
− フットプリントが小さい。メモリのコストが減少するが、必要なメモリ空間を最小化することは重大ではない。
− 直ちに使用可能である。初期化が必要な場合は、高速な初期化のみを必要とする。
− たとえば時刻変化或いは雲に起因する段階的或いは高速な照明変化、撮像装置の動き、木の葉或いは枝のような背景物体の高頻度の動き、たとえば停車中の車に起因する背景ジオメトリの変化に適応可能である。
多数の既存の背景除去法が存在する。このような方法の概観は、M. Piccardi著「Background subtraction techniques: a review」(Proceedings of the IEEE International Conference on Systems, Man and Cybernetics, vol. 4, 2004, pages 3099-3104)、及び、R. Radke、S. Andra、O. Al-Kofahi、B. Roysam著「Image change detection algorithms: A systematic survey」(IEEE Transactions on Image Processing, 14(3): 294-307, 3 2005)によって開示されている。
背景除去に対する第1のアプローチは、いわゆる素朴なアプローチである。この素朴なアプローチに従うと、単純な背景モデルは、背景ピクセル値が経時的に一定であると仮定する。次に、背景及び前景を、たとえば米国特許第6,061,476号において開示されているように、画像内のピクセルの値を同じシーケンス内の先行する画像のピクセルの値と比較することによって認識する。画像データ内のノイズ、シーン内の照明変化、或いは動きによって、差分が生じる可能性がある。ノイズ及び大域照明は、フィルタを適用することによって、或いは照明変化を対象とする検出器を使用することによって対処される。しかしながら、特に上記の要件に留意する場合には、背景物体の動きを除くことは、より困難である。
実際には、2つの画像間の差分をとることは有効ではない。背景認識方法は、背景ピクセル値の分布においてノイズ或いは照明変化に対処することを可能にしなければならない。したがって、拡張された技法が提案されている。以下でモデルベースアプローチと称するこれらの方法は、各ピクセルの値I(x)に対してモデルm(x)を構築する。このモデルを使用して、ピクセル値を同じピクセル位置における先行する複数のピクセル値と比較する。たとえば、I. Haritaoglu、D. Harwood、L. Davis著「W4: Real-time surveillance of people and their activities」(IEEE Transactions on Pattern Analysis and Machine Intelligence", 22(8): 809-830, 2000)によって開示されているW4アルゴリズムは、トレーニング段階中に、最小ピクセル値及び最大ピクセル値、並びに、2つの連続する画像間の差分の最大値によって背景をモデル化する。より高度なモデルベースアプローチは、以下のステップを含む。
− 初期化:初期化の目的は、シーケンスの最初の画像からモデルパラメータの有効推定値を構築することである。
− 比較:現在のピクセル値をモデルと対比してチェックする。
− モデル更新:ピクセル値がモデルと良好に適合する場合には、パラメータ、すなわちモデルを更新する。ピクセル値がモデルとマッチしない場合には、新たな値を使用してモデルを更新することはしない。これは、そうしなければモデルが発散してしまうためである。
モデルのタイプ、比較戦略、又は更新プロセスに応じて、いくつかのカテゴリのモデルベース背景除去方法が提案されている。
第1のカテゴリのモデルベース背景除去方法では、背景ピクセルモデルは、たとえばピクセル値の加重平均のような統計的尺度に基づく予測背景ピクセル値である。このカテゴリの背景除去方法は、たとえば、米国特許第7,136,525号、米国特許第4,350,998号、国際公開第01/16885号、米国特許出願公開第2006/0120619号、又は米国特許出願公開第2002/0064382号に開示されている。その最も単純な形式のうちの1つでは、背景ピクセルモデルは、同じピクセル位置における先行する複数のピクセル値の加重平均に基づく。mt(x)が、モデルによって提供される時刻tにおけるピクセル位置xのピクセル値を表し、mt+1(x)が、モデルによって提供される次の時刻t+1における同じピクセル位置xのピクセル値を表す場合、更新式は以下のようになる。
Figure 0004699564
ここで、αは0〜1の重み係数である。モデルピクセル値mt(x)によって形成される画像は、背景の推定値を構成する。
加重平均背景ピクセルモデルの計算は比較的単純であるが、状況によっては、単純な加重平均のような単一の予測ピクセル値は背景の包括的なモデルを提供しない。この理由から、第2のカテゴリのモデルベース背景除去方法、いわゆるパラメトリックモデルが使用される。パラメトリックモデルは、特定のピクセル位置における背景ピクセル値の確率密度関数(pdf)を提供し、pdfはパラメータのセットによって特徴付けられる。たとえば、C. Wren、A. Azarbayejani、T. Darrell、A. Pentland著「Pfinder: Real-time tracking of the human body」(IEEE Transactions on Pattern Analysis and Machine Intelligence, 19(7): 780-785, 1997)では、所与の位置における時間窓にわたるピクセル値がガウス分布していると仮定する背景モデルが開示されている。ガウス背景モデルは、米国特許出願公開第2006/0222205においても提案されている。国際公開第03/036557号において開示されている背景除去方法のような複雑な方法では、ピクセル位置ごとの平均ベクトル及び共分散行列を推定する。これは時として、たとえばD. Koller、J. Weber、T. Huang、J. Malik、G. Ogasawara、B. Rao、S. Russell著「Towards robust automatic traffic scene analysis in real time」(Proceedings of the International Conference on Pattern Recognition, Israel, 1994)によって開示されているように、それらの値を適合させるためのカルマンフィルタの使用と組み合わされる。しかしながら、この方法の主要な欠点は残っている。モデルの単峰性(uni-modal)によって、木の葉、ちらついているモニタ等のような動的環境の背景内に存在する動きによって引き起こされる多峰性(multi-modal)の出現を正確に取り扱うことが妨げられる。
この問題を、依然としてこのカテゴリのパラメトリックモデル内で解決するために、重みを付けして混合したガウス分布を使用して背景をモデル化することが、C. Stauffer、E. Grimson著「Adaptive background mixture models for real-time tracking」(Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pages 246-252, 6 1999)、及び、「Learning patterns of activity using ral-time tracking」(IEEE Transactions on Pattern Analysis and Machine Intelligence, 22(8): 747-757, 2000)によって最初に提案された。上述の概観、及びP. Power、J. Schooneesによる論文「Understanding background mixture models for foreground segmentation」(Proc. Images and Vision Computing, Auckland, NZ, 11 2002)から分かるように、導入以来、このガウス混合モデル(GMM)はコンピュータビジョンコミュニティの中で人気を得ている。そして、Z. Zivkovic著「Improved adaptive gaussian mixture model for background subtraction」(Proceedings of the International Conference on Pattern Recognition, 2004)、Qi Zang、R. Klette著「Robust background subtraction and maintenance」(ICPR '04: Proceedings of the 17th International Conference on Pattern Recognition, Volume 2, pages 90-93, Washington DC, USA, 2004)、D. S. Lee著「Effective Gaussian mixture learning for video background subtraction」(IEEE Transactions on Pattern Analysis and Machine Intelligence, 27(5): 827-832, May 2005)による開示、並びに、国際公開第2005/024651号に見られるように依然として多くの関心を集めている。それにもかかわらず、GMMは、「背景は前景よりも頻繁に見える」、「その分散は著しく小さい」、という仮定に強く依存しているため、いくつかの基本的な欠点を有する。これらの仮定のいずれも、すべての時間窓に対して有効であるわけではない。さらに、A. Elgammal、R. Duraiswami、D. Harwood、L. S. Davis著「Background and Foreground Modeling Using Nonparametric Kernel Density Estimation for Visual Surveillance」(Proceedings of the IEEE, Vol. 90, No. 7, July 2002, pages 1151-1163)によって指摘されているように、高頻度の変化と低頻度の変化が背景内に存在する場、その感度を正確に調整することはできず、モデルは自身をその標的自体に適合させることもあるが、いくつかの高速の標的の検出に失敗する場合もある。最後に、特に分布のモデルパラメータの推定は、実世界のノイズの多い環境では問題となる可能性がある。
これらの問題は、第3のカテゴリの背景モデル、すなわち、いわゆるノンパラメトリックモデルによって対処されている。これらのモデルはパラメトリックモデルと非常に類似しているが、所定の確率密度関数のパラメータを推定しようとせず、代わりに、それらの基礎となる分布に関して何ら仮定を行わずに実際のピクセル値から直接にカーネル密度関数を推定する点が異なっている。これによって、関数を選択する必要と、その分布パラメータの推定とが回避される。
ノンパラメトリックカーネル密度推定方法の強みの1つは、A. Elgammal他による上述の論文、及びZ. Zivkovic及びF. van der Heijden著「Efficient adaptive density estimation per image pixel for the task of background subtraction」(Pattern Recognition Letters, 27(7): 773-780, 2006)によって開示されているように、実際に観測されたピクセル値に基づくため、パラメータ推定ステップのうちの一部を回避することができることである。この方法は、最近の履歴からサンプリングされた実際の値のセットを使用して、背景ピクセルのカーネル密度をモデル化する。したがって、新たに観測された値をピクセルモデル内に直ちに取り込むことによって、背景内の高頻度の事象に対して高速に応答することができる。しかしながら、この方法によって、様々な速さで展開しつつ同時発生する複数の事象を首尾よく取り扱うことができるかについては議論の余地がある。それは、この方法が、先入れ先出し(first-in first out)の方法でピクセルとモデルを更新するためである。実際、この方法は、ピクセルごとに2つのサブモデル、すなわち短期モデルと長期モデルを使用することが多い。
これは簡便な解決策であり得るが人為的であり、所与の状況において適切に機能するためには微調整を必要とする。ピクセルモデルを構成するサンプリング値に関するより円滑なライフスパン方針を見つけることが顕著な改善点である。
ノンパラメトリック背景ピクセルモデルにおいて、実際に観測されたピクセル値を使用することは、それによって推定するパラメータの数が低減されるという事実に加えて、確率論的な観点からも理に適っている。それは、既に観測されている値が再び観測される確率は、一度も遭遇しなかった値が観測される確率よりも高いためである。しかしながら、パラメータのセット全体、すなわちカーネル関数のパラメータは、著しい量の固定サイズカーネルを使用しない限りそのままである。実際、カーネル密度推定方法は、パラメータ推定が不正確であることに関連する問題も抱える可能性がある。
上述の方法のすべてはピクセルレベルで機能するため、空間的一貫性を得るために追加の後処理を必要とするというさらなる欠点を有する。
これらの欠点に対処するために、サンプルコンセンサス(SAmple CONsensus)、或いはSACONと称される新たな背景検出方法が、H. Wang、D. Suter著「A consensus-based method for tracking: Modelling background scenario and foreground appearance」(Pattern Recognition, 40(3): 1091-1105, March 2007)によって提案されている。最も近い従来技術を構成すると思われるこの論文は、撮像装置によってキャプチャされてそれぞれが複数のピクセルのセットから形成される複数の関連画像の中から選択された画像内の背景を検出する方法を開示している。この背景検出方法は、以下のステップを含む。
− 複数の画像内の確定されたピクセル位置について、複数のアドレスを含む背景履歴を構築する。背景履歴の各アドレス内には、サンプルピクセル値が記憶される。
− 選択された画像内の上記確定されたピクセル位置に対応するピクセル値を、上記背景履歴と比較する。選択された画像の上記ピクセル値が、上記背景履歴の少なくとも所定数のサンプルピクセル値と実質的にマッチする場合は、
− 上記確定されたピクセル位置を、画像背景に属するものとして分類する。
− 上記背景履歴のサンプルピクセル値のうちの1つを、選択された画像の上記ピクセル値と置き換えることによって、上記背景履歴を更新する。
より正確には、SACON法は、ピクセル位置ごとに、N個の背景サンプルピクセル値の履歴を保持する。これらのサンプルは単純に、モデルに適合する直近に観測されたN個の値である。Nは20〜200に及ぶが、著者らは、N=20がほとんどの実際の作業において使用されなければならない最小値であると結論付けている。しかしながら、この論文において提供されている図は、N=60が最良の性能をもたらすはずであることを示している。
この論文は、初期化プロセスについては一切言及していない。しかしながら、最初のN個のサンプルは履歴を満たすために使用されると仮定することができる。そのため、アルゴリズムが適切な結果を生成する前に、毎秒30画像のフレームレートで1〜2秒の初期化が必要である。
この方法は単純に、確定されたピクセル位置の背景履歴内に格納されているサンプルピクセル値が、選択された画像のそのピクセル位置におけるピクセル値と実質的にマッチする回数をカウントする。本明細書全体を通じて、「実質的にマッチする」とは、サンプルピクセル値が、選択された画像のピクセル値の周辺の所与の範囲内にあることを意味する。このSACON法では、この範囲は適応的であり、サンプルピクセル値に依存する。選択された画像のピクセル値が画像背景に属するものとして分類されるために、マッチしなければならない背景履歴内のサンプルピクセル値の所定の最小数に関して、この論文は、最小数は経験的に求められ、Nに依存すると述べている。
この最も近い従来技術における背景履歴更新は先入れ先出し方式で実行される。すなわち、現在のピクセル値は、背景履歴内の最も古いピクセル値と置き換わる。また、ゴースト物体を除去するために、あるピクセル位置が所定の回数にわたって前景であると分類されると、当該ピクセル位置は背景に属するものとして認識される。それに従って、そのピクセル位置の背景履歴は、そのピクセル位置にける直近のN個のピクセル値を用いて更新される。さらに、空間的コヒーレンスを確保するために、ブロブレベルにおける追加の更新メカニズムが存在する。このメカニズムは、接続された(隣接する)前景ピクセルのセットを取り扱う。静的前景ブロブ、すなわちそのサイズ及び中心が実質的に一定である前景ブロブも背景内に組み込まれる。しかしながら、空間的コヒーレンスを提供するこのような方法は、著しい追加の計算容量を必要とし、ブロブ検出と同程度の信頼性しかない。
しかしながら、SACON法は、いくつかの重大な欠点を提示する。それらの欠点の中でも最も重大なことは、先入れ先出し背景履歴更新メカニズムに起因して、サンプル背景ピクセル値が固定の経過時間にわたって履歴内に格納されることである。
このため、この背景検出方法の挙動は、背景展開速度及び背景履歴内のサンプル値の数に依存して大きく変化する。
したがって、本発明の目的は、より広範囲の背景展開速度に適合する背景検出方法を提供することである。
この目的を達成するために、本発明の方法では、置き換えられるサンプルピクセル値のアドレスをランダムに選択する。これによって、ライフスパン方針がより円滑になる。当該ライフスパン方針の、履歴内のサンプル値の予測される残存ライフスパンに対して誘発される指数関数的な減衰は理論的観点からより良好であると共に、履歴サイズが小さい場合であっても、より広範囲の背景展開速度に関する本技法の適切な挙動を可能にする。
その上、現行の技術水準の決定論的方法は、バイアスに対して脆弱であると共に、先行するフィルタリングによって抑制されなければならないノイズによって悪影響を受けるが、このランダム技法にはノイズ耐性が本来備わっており、それによって、ピクセル値のこのようなフィルタリングが不要となる。したがって、本発明の方法は、決定論的プロセスで求められた境界が重なり合うことが多い前景物体の境界において、より鮮鋭なセグメント化結果をもたらす。また、特にノイズの多い画像データに対処するときに、本方法のロバスト性を著しく強化するというさらなる驚くべき利点を有する。
さらに、SACON法は現在のピクセル値とサンプルピクセル値との間に適応的な比較閾値を必要とするが、本発明の方法は、すべてのピクセル値に対して同じ固定の比較範囲を用いて非常に満足のいく結果を達成するというさらなる驚くべき利点をも有する。これによって、SACON法の単純性及び実用性に悪影響を及ぼす、さまざまな環境状況における画像内のすべてのピクセル値に対する効率的な背景検出のための閾値パラメータの複雑なセットを推定する必要がなくなる。
有利には、本発明の方法は、上記更新ステップを実行するか否かを、所定の背景履歴更新確率を用いてランダムに決定するランダム更新選択ステップをさらに含むことができる。これによって、ノイズ耐性を増大させ、時間挙動を改善すると共に、本発明の背景検出方法のバイアスを低減しながら、必要な計算量を低減することが可能となる。
本発明のさらなる目的は、冗長な初期化をすることなく背景履歴を完成させることである。本発明の方法の特定の実施形態では、上記背景履歴を構築するステップは、上記複数の画像の中の、上記選択された画像以外の少なくとも1つの画像内の隣接する複数のピクセル位置のピクセル値を読み取ることと、これらのピクセル値を、上記背景履歴の複数のアドレス内にランダムにソートしてサンプルピクセル値として格納することとを含むことができる。これによって、単一の画像を用いて完全な背景履歴初期化を提供することができ、本方法が信頼性のある背景検出の提供を開始するのに必要な時間が大幅に短縮される。ノイズ耐性及びバイアス耐性を増大させるために、上記隣接するピクセル位置を、確定されたピクセル位置の近傍内でランダムに選択することができる。
本発明のさらなる目的は、後処理をせずに、且つ意図的に相互接続されたピクセルのブロブを規定する必要なく、或る程度の空間的コヒーレンスを提供することである。これを達成するために、本発明の背景認識方法の有利な実施形態では、上記選択された画像内の上記確定されたピクセル位置の上記ピクセル値が、上記確定されたピクセル位置の履歴内の少なくとも上記所定数のサンプルピクセル値と実質的にマッチする場合に、別の複数のアドレスを含むと共に、各アドレス内にサンプルピクセル値が格納されるように構築された、隣接するピクセルに対応する背景履歴を、隣接するピクセルの上記背景履歴内のランダムに選択されたアドレスのサンプルピクセル値を、選択された画像内の確定されたピクセル位置のピクセル値と置き換えることによって更新する。有利には、上記隣接するピクセル背景履歴は、バイアスを回避するように、上記確定されたピクセルの近傍内でランダムに選択することができる。また有利には、本方法は、バイアスを回避しながら計算動作を低減するように、隣接ピクセル履歴を更新するか否かを、所定の隣接ピクセル背景履歴更新確率を用いてランダムに決定するランダム隣接ピクセル履歴更新選択ステップをさらに含むことができる。
背景履歴は複数のサンプルピクセル値を含むため、隣接ピクセル背景履歴内に誤って挿入された無関係の情報は本方法の精度に影響しない。さらに、観測値がさらに伝播するためにはその前にマッチングする必要があるため、無関係な情報が誤って拡散することが防止される。この自然な制限によって、誤差伝播が阻止される。
また、本発明の背景認識システムが適合する背景展開速度の範囲をさらに広げるために、本方法の有利な実施形態では、上記確定されたピクセル位置に対応すると共に複数のアドレスを含む少なくとも1つの補助履歴を、各アドレス内にサンプルピクセル値が格納されるように構築し、選択された画像の上記ピクセル値が背景履歴の少なくとも上記所定数のサンプルピクセル値に実質的にマッチしない場合に、本方法は、
− 選択された画像の上記ピクセル値を、上記補助履歴と比較するステップと、
当該ピクセル値が上記補助履歴内の少なくとも別の所定数のサンプルピクセル値と実質的にマッチする場合に、
− 補助履歴を更新するか否かを、背景履歴更新確率よりも高い補助履歴更新確率を用いてランダムに決定するステップと、
更新する場合に、
− 補助履歴内のランダムに選択されたアドレスのサンプルピクセル値を、選択された画像の上記ピクセル値と置き換えることによって、上記補助履歴を更新するステップと、
を含むことができる。
これによって、現在のピクセル値と比較することができる種々の時間応答特性を有する少なくとも1つの補助画像層が提供され、背景変化とさまざまな速度における動きとを区別することが可能になる。
有利には、少なくとも1つの補助履歴を、ゴースト抑制に使用することができる。シーンのまだ見ていない部分を最初に観測したときに、対応するピクセルが誤って前景として分類され、いわゆるゴーストデータを構成する。背景層のみを有する本発明の実施形態では、上述のように空間的一貫性を確保するために、背景履歴内に隣接するピクセル値の確定されたピクセルを挿入して、これらのゴーストピクセルを漸次背景に移す。しかしながら、この空間拡散プロセスは遅くなる可能性があり、隣接するピクセルが背景物体の境界におけるように大きな相違点を呈する場合には、効果がない可能性すらある。
この問題に対処するために、選択された画像の上記ピクセル値が、上記補助履歴の少なくとも上記別の所定数のサンプルピクセル値と実質的にマッチする場合に、本方法は、
− 選択された画像のピクセル値を用いて背景履歴も更新するか否かを、補助履歴更新確率よりも低い所定の背景埋め込み確率(background seeding probability)を用いてランダムに決定するステップと、
更新する場合に、
− 背景履歴内のランダムに選択されたアドレスのサンプルピクセル値を、選択された画像の上記ピクセル値と置き換えることによって、背景履歴を更新するステップと、
をさらに含むことができる。
これらの追加のステップは、背景履歴に新たな値を埋め込み、これによって物体内部のゴースト抑制のための空間拡散プロセスを加速させることができる。
また、背景検出に対する処理要件をさらに低減するために、有利な実施形態では、本発明の背景検出方法は、上記選択された画像を複数のサブサンプリング領域に分割するステップと、各サブサンプリング領域内から1つの確定されたピクセル位置を、サブサンプリング領域全体を表すものとしてランダムに選択するステップとを含むことができる。従来の方法としては、サンプルピクセルを規則的な格子上に位置するものとして選択することが提案されていた。線形モデルを使用する場合、これはナイキスト安定性に準拠するために予備的フィルタリングを必要とする。これには、実際には原画像に存在しない新たなピクセル値を導入し、したがって場合によっては望ましくないアーチファクトが導入されてしまうという不便な点があった。サンプリングされるピクセルをランダムに選択することによって、予備的フィルタリングが不要になり、このようなフィルタリングの結果生じる場合があるこのようなアーチファクトが回避される。
有利には、本方法は、パン又はズームのような画像の動きに応じて、上記画像内の別のピクセル位置の背景履歴を、上記確定されたピクセル位置に再割当てするステップをさらに含む。これによって、画像の動きに起因する明白な背景の動き、特に、撮像装置の移動のような大きな撮像装置の動きの補償が提供される。
有利には、既存の撮像装置は内蔵運動センサを組み込んでいることが多いため、再割当てされる背景履歴のピクセル位置は、撮像装置の運動センサによって検出される動きに基づくことができる。
有利には、既存の撮像装置には、ズーム値センサを有するズーム装置を備えつけることができるため、再割当てされる背景履歴のピクセル位置は、撮像装置のズーム値に基づくことができる。
有利には、既存の撮像装置には、ブロックマッチングアルゴリズムを実行する画像プロセッサを備えつけることができるため、再割当てされる背景履歴のピクセル位置は、たとえば標準MPEGビデオ符号化プロセスにおいて使用されるようなブロックマッチングアルゴリズムによって得られる対応に基づいて決定することができる。
また、本発明は、本発明の画像背景認識方法を実行するようにプログラムされたデータ処理装置、データ処理装置が本発明による画像背景認識方法を実行するための命令セットを含むデータ記憶媒体、データ処理装置が本発明による画像背景認識方法を実行するための命令セットを含む、磁気的形態、電磁的形態、電気的形態及び/若しくは機械的形態における信号のセット、並びに/又は、データ処理装置が本発明による画像背景認識方法を実行するための命令セットを、磁気的手段、電磁的手段、電気的手段及び/若しくは機械的手段を介して伝送するプロセスにも関する。
具体的には、本発明の画像背景認識方法を実行するようにプログラムされた上記データ処理装置は、たとえばディジタルカメラのような撮像装置に内蔵することができる。
本発明の画像背景認識方法を実行するようにプログラムされた上記データ処理装置は、撮像装置をさらに備えるビデオゲームシステム又はビデオ監視システムに属することもできる。
「データ記憶媒体」とは、少なくとも特定の時間期間にわたって読出し装置によって読出し可能なデータを含むことが可能な任意の物理的媒体として理解される。このようなデータ記憶媒体の例は、磁気テープ及びディスク、(読出し専用及び記録可能又は書換え可能)光ディスク、読出し専用メモリチップ、ランダムアクセスメモリチップ及びフラッシュメモリチップのような論理回路メモリ、並びにさらには、化学メモリ、生化学メモリ又は機械メモリのような新種の(exotic)データ記憶媒体である。
「電磁」とは、無線波からUV以上までの電磁スペクトルの任意の部分として理解され、コヒーレントな形態(レーザ、メーザ)又はインコヒーレントな形態のマイクロ波、赤外線及び可視光を含む。
「物体」とは、動物及び/又は人間を含む、実世界の任意の観測可能な要素として理解される。
ここで、本発明の特定の実施形態を、以下の図面を参照して例示であって非限定的な形態で説明する。
背景履歴及び隣接ピクセルを有する確定されたピクセルを含む画像を含む画像セットの概略図である。 本発明の背景検出方法の実施形態のフローチャート図である。 確定されたピクセルのピクセル値及び背景履歴のサンプルピクセル値の図である。 図3の背景履歴のサンプルピクセル値からランダムに選択された1つを現在のピクセル値と置き換えることによって背景履歴を更新した結果として生じる、可能な代替の背景履歴のサンプルピクセル値の図である。 図3の背景履歴のサンプルピクセル値からランダムに選択された1つを現在のピクセル値と置き換えることによって背景履歴を更新した結果として生じる、可能な代替の背景履歴のサンプルピクセル値の図である。 図3の背景履歴のサンプルピクセル値からランダムに選択された1つを現在のピクセル値と置き換えることによって背景履歴を更新した結果として生じる、可能な代替の背景履歴のサンプルピクセル値を有する図である。 パンに応じた背景履歴の再割当てを示す図である。 ズームインに応じた背景履歴の再割当てを示す図である。 ズームアウトに応じた背景履歴の再割当てを示す図である。 複数のサブサンプリング領域に分割された画像の概略図である。 確定されたピクセル位置についての背景履歴及び複数の補助履歴の図である。 本発明の代替的な背景検出方法の一部のフローチャート図である。 本発明の方法の実施形態を実行するようにプログラムされたデータ処理装置が内蔵されている撮像装置を示す図である。 本発明の方法の実施形態を実行するようにプログラムされたデータ処理装置に接続されている撮像装置を示す図である。
図1は、複数の画像Iのセットを示す。これらの画像は、たとえば撮像装置によって連続的にキャプチャされたものである。各画像Iは複数のピクセルから形成され、画像I内の各単一のピクセルは、専用のピクセル位置x及びピクセル値I(x)を有する。理解を容易にするために、添付の図面ではピクセル位置xは2次元として示されているが、任意の次元数を有することができる。たとえば3D画像の場合、ピクセル位置xは3つの次元を有する。例示の実施形態におけるピクセル値I(x)は、多色画像を得るためのRGB又はHSVの3つ一組の形態にある3次元である。しかしながら、代替的な実施形態では、任意の他の次元数を有することができる。確定されたピクセル101は、いくつかの隣接するピクセル102を有する。
観測tに対応する選択画像Itでは、ピクセル101はピクセル値It(x)を有する。ピクセル101のピクセル位置xのために、N個のアドレス104−1〜104−Nを有する背景履歴103が存在する。履歴内には、そのピクセル位置xにおける背景モデルを表すサンプルピクセル値b1(x)〜bN(x)が格納される。ここで、図2に示されるフローチャートを参照すると、ステップ201において、選択画像It内のピクセル値It(x)を読み取り、ステップ202において、このピクセル値を背景履歴103と比較することによって、上記の選択画像It内のピクセル101が背景に属するか否かを判断することができる。この比較ステップ202を、3次元空間内のサンプルピクセル値b1(x)〜b6(x)を含むN=6個のアドレスを有する背景履歴103と、ピクセル値It(x)について図3に示す。確率密度関数を推定する代わりに、ピクセル値It(x)を背景履歴103内の近くのサンプルピクセル値と比較し、それによって上記背景履歴103内の外れ値の影響を制限する。これを達成するために、ピクセル値It(x)を中心とする半径Rの球SR,t(x)を規定する。次いで濃度、すなわち、この球とサンプルピクセル値の集合{b1(x),b2(x),...,bN(x)}との共通部分集合の集合要素の数Cを求める。
Figure 0004699564
この濃度Cが最小数以上である場合、ステップ203において、ピクセル101を背景に属するものとして分類する。したがって、背景認識の精度を決定する2つのパラメータは、比較閾値を形成する半径R、及び、上記最小マッチング濃度Cである。実験は、N=6個のサンプルピクセル値について、単一の固定半径R及び最小濃度=2が優れた性能をもたらすことを示している。これらのパラメータを背景検出中に適合させる必要はなく、画像I内の種々のピクセル位置xごとに変更する必要もない。このモデルの感度を、最小マッチング濃度Cとサンプルピクセル値b1(x)〜bN(x)の総数Nとの比を用いて調整することができる。
例示の実施形態ではN=6であるが、代替的な実施形態ではNは状況に応じて種々の数とすることができる。有利には、必須ではないが、Nは3〜50の範囲内にあることができる。好ましい範囲は5〜30と考えられ、特に好ましい実施形態ではN=20である。
図2のフローチャートに戻ると、次のステップ204において、ピクセル値It(x)を背景履歴103の更新に使用するか否かをランダムに決定する。使用する場合、次のステップ205において更新を行う。この背景認識方法では保守的更新方式を使用する、すなわち、比較ステップ202においてピクセル101が背景に属すると確認される場合にのみ、その現在のピクセル値It(x)を使用してその背景履歴103を更新する。経時的に正確な結果を達成すると共に、シーン内に現れる新たな物体を取り扱うために、背景履歴103は頻繁に更新しなければならない。この方法では、ピクセル値It(x)を背景履歴103内のサンプルピクセル値b1(x)〜bN(x)と直接比較し、サンプルピクセル値に対する平滑化効果は存在しない。そのため、いずれのサンプルピクセル値を背景履歴103内に保持するか、及びどのように保持するかが重要である。
ランダム更新選択ステップ204では、背景履歴103内のサンプルピクセル値を効率的に置き換えるか否かを判断するために、ランダム技法を使用する。ピクセル101が背景に属するものと確認された場合でも、そのピクセル値It(x)をランダムに使用して、背景履歴103内のサンプルピクセル値のうちの1つと置き換える。たとえば、16分の1のランダム履歴更新確率を用いて置き換える。次いで、更新ステップ205において、ピクセル値It(x)は、背景履歴103のランダムに選択されたアドレス104−i内のサンプルピクセル値に置き換わる。ここで、iは1〜Nの乱数である。これを図4a〜図4cに示す。図4a〜図4cは、図3に示す背景履歴103に対する3つの代替の更新を示している。図4aでは、ピクセル値It(x)はサンプルピクセル値b3(x)に置き換わっている。図4bでは、ピクセル値It(x)は代わりにb2(x)に置き換わっている。一方、図4cでは、ピクセル値It(x)はb5(x)に置き換わっている。
背景履歴103が更新される際に、サンプルピクセル値が保持される確率は以下の通りである。
Figure 0004699564
更新ステップ205の後、この方法を、次の画像It+1内のピクセル101のピクセル値It+1(x)に対して再び繰り返す。すべての連続する有効な更新ごとに、背景履歴103内の各サンプルピクセル値の予測される残存ライフスパンは指数関数的に減衰する。
撮像システムの小さな動き及び振動、或いは背景物体のゆるやかな展開のようないくつかの状況に対応するために、ピクセル101の背景履歴103と、ピクセル101の空間近傍NG(x)内にあるピクセル102の背景履歴との間に、或る空間的一貫性を導入することが好ましい。これらのピクセル102は、図1に示すように直接隣接するピクセルを含む場合もあるが、より広範な空間近傍NG(x)内にあるピクセルも含む場合もある。これを達成するために、隣接ピクセル背景履歴更新選択ステップ206では、次の第2の更新ステップ207においてランダムに選択された隣接ピクセル102の背景履歴の更新にピクセル101のピクセル値It(x)を使用するか否かを、場合によっては更新選択ステップ204とは異なる確率を用いてランダムに決定してもよい。先行する更新ステップ205のように、上記背景履歴103のランダムに選択されたアドレス104−iにおけるサンプルピクセル値と置き換えることによって、背景履歴103を更新する。
しかしながら、先行する比較ステップ202を実行するために、最初に背景履歴103を構築する必要がある。特定の時間後では、背景履歴103内のすべてのサンプルピクセル値b1(x)〜bN(x)は以前の更新に由来するものになるであろうが、画像シーケンスの始まりにおいては、ピクセル101についてサンプルピクセル値として利用可能な先行するピクセルは存在しない。背景履歴103を構築するために、たとえば複数の画像Iのセットの最初の画像I1を使用して、初期化ステップ208を実行する。この初期化ステップ208において、たとえば上記最初の画像I1内のランダムに選択された隣接ピクセル102のピクセル値を、ピクセル101の背景履歴103のN個のアドレス104−1〜104−N内の初期サンプルピクセル値b1(x)〜bN(x)として選択する。したがって、冗長な初期化期間なしで、シーケンス内の最初の画像I1から完全な背景モデルを構築することができる。この初期化ステップ208は、最初の画像I1内の動いている物体に応答してゴースト物体が生成されるという欠点を有するが、後の更新によってこれらは時間と共に確実に消える。
初期化ステップ208と第2の更新ステップ207とにおいて、異なるサイズの空間近傍NG(x)から得られる隣接ピクセル102を使用することができる。たとえば、N=20個のサンプルピクセル値を含む背景履歴103を初期化するために、上記確定されたピクセル101の周囲の5×5、或いは7×7ピクセルの広範な空間近傍NG(x)を選択することができる。他方で、空間的一貫性を改善する第2の更新ステップ207においては、3×3ピクセル、或いは4つの最も近い隣接ピクセル102(左、右、上及び下)のみから成る狭い空間近傍NG(x)を選択することができる。
背景に属するものとして分類された上記画像It内のピクセル101のピクセル値と、背景に属するものとして分類されなかった上記画像It内のピクセル101とを使用して、所与の画像Itについての合成背景画像Btを作成することができる。
背景に属するものとして分類されなかった上記画像It内のピクセル101については、好ましくは上記背景履歴103内のランダムに選択されたアドレス104−iのサンプルピクセル値のうちの1つを使用する。
たとえば、画像Itを背景画像Btと比較する影検出後処理技法において、この合成背景画像Btを使用することができる。及び/又は、ビデオ監視における破棄される物体(abandoned object)の検出に、この合成背景画像Btを使用することができる。ビデオ監視における破棄される物体の検出では、破棄される物体を検出するために当業者に既知の様式で現在の画像と比較される基準画像Rを定期的に更新するために、背景画像Btを使用する。
実際の状況では、撮像装置もシーン内の物体も、必ずしも固定されているとは限らない。いくつかの撮像装置は、並進ベクトルのような動きパラメータ、アフィン変換のパラメータ、或いはズーム値のような軸変換のパラメータを提供する場合がある。少なくとも最小のこのような動きがステップ209において検出される場合、これによって、図5a〜図5cに示すように、比較ステップ202に先立つ動き補償ステップ210において、別のピクセル105からの背景履歴を確定されたピクセル101に再割当てすることが可能となる。
上記動きパラメータは、ピクセル105のピクセル101に対する相対位置を決定する。これらは、撮像装置に内蔵されている運動センサ及び/若しくはズームセンサによって、並びに/又は、画像データに直接基づいて異なる画像I内の領域間の対応を構築する技法によって、得ることができる。たとえば、多くの消費者市場のディジタルカメラは、ディジタル動き補償のための運動センサを内蔵しており、このセンサをこれらの動きパラメータを得るのに使用することができる。また、ISO MPEG標準規格に準拠する符号化器は、2つの画像の領域間の1対1対応を構築するためのブロックマッチングアルゴリズムを適用しており、このアルゴリズムをこれらの動きパラメータを得るのに使用することができる
この再割当てプロセスでは、2つのピクセル位置が互いに一意に対にされる場合は、背景履歴103は単純に、ピクセル105におけるその古いロケーションからピクセル101におけるその新たなロケーションに再割当てされる。しかしながら、画像Itが先行する画像It-1内に存在しない少なくとも1つのピクセルを含む場合は、先行する画像It-1内の最も近いピクセルの背景履歴からのサンプルピクセル値、又は代替的にはランダムな値を使用してその背景履歴103を満たすことができる。
図5aは、撮像装置のパン動作の事例における背景履歴再割当てを示す。撮像装置が画像平面に平行な軸上で右から左に移動すると、ピクセル105の背景履歴を、当該ピクセルの右側にある対応するピクセル101に再割当てする。それによって、撮像装置が動いているという事実にもかかわらず、それらのピクセル101について本発明の背景検出方法の一貫した結果が得られる。しかしながら、2つの連続する画像It-1、Itにおいては、大部分のピクセルは双方の画像It-1、It内に見られるシーン間の共通部分に対応するが、It-1のいくつかのピクセルは画像フレームから外れ、その一方で、先行する画像It-1内で見えていたシーンの部分に対応する他のピクセルがIt内に現れる。前者の背景履歴(例示の実施例では右側の背景履歴)は破棄するか、又は、後に使用するために保存することもできる。後者の背景履歴(例示の実施例では左側の背景履歴)は瞬時に初期化するか、又は、たとえば撮像装置が以前に反対方向に移動したことがあるのであれば、以前の記憶から復元することもできる。
図5bは、撮像装置のクローズアップ動作、すなわちズームインの事例における背景履歴再割当てを示す。この事例では、再割当てされた背景履歴は、画像Itの中心から遠ざかる。先行する画像Iのエッジに近いピクセルの背景履歴は破棄するか、又は、後に使用するために保存することもできる。シーンの所与の部分に対応するピクセル数は画像It内では先行する画像It-1と比較して増加するため、画像It-1内のピクセル105の背景履歴を、画像It内のいくつかのピクセル101に再割り当てすることができる。
図5cは、撮像装置の後退する動作、すなわちズームアウトの事例における背景履歴再割当てを示す。この事例では、再割当てされた背景履歴は、画像Itの中央に向かって移動する。シーンの所与の部分に対応するピクセル数は減少するが、先行する画像It-1内の複数のピクセル105のすべての背景履歴について、再割当てされる画像It内の対応するピクセル101が見つかるわけではない。画像Itのエッジの近くには、シーンの先行する画像It-1においては見えなかった部分に対応するピクセルが現れる。これらのピクセルの履歴は瞬時に初期化するか、又は、たとえば撮像装置が以前にズームインしたことがあるのであれば、以前の記憶から復元することもできる。
ブロックマッチングアルゴリズムが動いている物体を検出する場合は、画像It内のその対応するピクセル値It(x)を背景履歴更新から除外することができる。
本発明の第1の実施形態では、上述の方法は、画像セットの各画像Iのすべてのピクセルに対して実行される。しかしながら、状況によっては、完全な鮮明度の画像を使用することよりも処理速度が重要な場合もある。本方法はあらゆるスケールにおいて良好な性能を提供するため、各画像Iのピクセルセットから選択されるピクセルサブセットに対して本発明の方法を実行し、画像背景を検出することも可能である。すなわち、原画像データセットをサブサンプリングすることによって、画像はより低い解像度に低減される。このサブセット内のピクセルは、ランダムに選択することができる。図5は、これをどのようにして実行することができるかの一例を示す。図6の実施形態では、シーケンスの各画像Iは、複数のサブサンプリング領域601に分割される。各サブサンプリング領域601において、単一の確定されたピクセル101が、サブサンプリング領域601全体を現すものとしてランダムに選択される。画像セット内の各画像Iについて、このランダムピクセル選択が再度実行される。
図7及び図8に示す本発明の別の代替的な実施形態では、補助履歴103’、103’’、103’’’及び103IVのセットが、各確定されたピクセル101のピクセル位置xについて構築される。本発明の代替的な実施形態では、種々の数の補助履歴を使用することができる。
これらの補助履歴補助履歴103’、103’’、103’’’及び103IVのそれぞれは、背景履歴103のように、以下のパラメータを有する。
それぞれ上記追加の履歴103’、103’’、103’’’又は103IV内のサンプルピクセル値について、利用可能なアドレス104’、104’’、104’’’又は104IVの数N;
現在のピクセル値It(x)が、サンプルピクセル値と実質的にマッチするとみなされるための、当該ピクセル値It(x)と上記補助履歴103’、103’’、103’’’又は103IV内のサンプルピクセル値との間の最大距離R;
ピクセル値It(x)が上記補助履歴103’、103’’、103’’’又は103IVに属するものとみなされるために実質的にマッチしなければならない、上記補助履歴103’、103’’、103’’’又は103IV内のサンプル値の数C;
更新について考慮する場合は、上記補助履歴103’、103’’...又は103IVを更新するためにピクセル値It(x)を使用する確率を規定する履歴更新確率。
例示の実施形態では、ピクセル101の各補助履歴103’、103’’、103’’’及び103IVは、異なるパラメータが選択され得る場合であっても、背景履歴103と同じ数N、最大距離R、及び閾値濃度Cを有することができる。しかしながら、各補助履歴103’、103’’、103’’’及び103IVは、背景履歴更新確率よりも高いそれぞれ異なる補助履歴更新確率によって特徴付けられる。補助履歴更新確率が増大すると、連続する画像Iにおける変化への適応の遅さとして定義される、各補助履歴の慣性が減少する。したがって、大きい慣性を有する履歴は、より多数の画像Iにわたって観測されるピクセル値を考慮に入れる。一方、小さい慣性を有する履歴は、高速で変化する値をモデル化することが可能である。たとえば、背景履歴更新確率が1/16の場合では、例示の実施形態の補助履歴103’、103’’、103’’’及び103IVの更新に使用される補助履歴更新確率は、それぞれ、1/8、1/4、1/2及び1とすることができる。
上述の実施形態におけるように、背景履歴103のアドレス104−1〜104−Nを、最初の画像I1内のランダムに選択された隣接ピクセル102のランダムにソートされた値で満たすことによって、背景履歴103を初期化することができる。しかしながら、上記最初の画像I1内のすべてのピクセルが背景に属すると仮定され得る場合は、補助履歴103’、103’’、103’’’及び103IVのそれぞれを、ランダムな値を用いて初期化することができる。その結果、補助履歴103’、103’’、103’’’及び103IVは、更なる情報が利用可能になるとすぐに適応する。
図8に示すように、現在のピクセル値It(x)を、対応する履歴103、103’、103’’、103’’’及び103IVと階層的に比較する。背景履歴103から開始して、値It(x)を、各履歴103、103’、103’’、103’’’及び103IVと対照して再帰的にチェックする。
したがって、選択画像Itのピクセル値It(x)が上述の比較ステップ202において背景履歴103とマッチしなかった場合は、第1の補助履歴比較ステップ202’において、当該ピクセル値を第1の補助履歴103’と比較する。当該ピクセル値が、上記第1の補助履歴103’のアドレス104’−1〜104’−N内に格納されている少なくともC個のサンプルピクセル値と実質的にマッチする場合は、たとえば上述の1/8等の第1の補助履歴更新確率を用いるランダム更新選択ステップ204’において、次の第1の補助履歴更新ステップ205’において第1の補助履歴103’をピクセル値It(x)を用いて更新するか否かが検討される。第1の補助履歴更新ステップ205’において、上記ピクセル値It(x)は、第1の補助履歴103’のランダムに選択されたアドレス104’−1内のサンプルピクセル値と置き換わる。
しかしながら、ピクセル値It(x)が上記第1の補助履歴103’内に格納されている上記少なくともC個のサンプルピクセル値とマッチしない場合は、第2の補助履歴比較ステップ202’’において、当該ピクセル値を第2の補助履歴103’’と比較する。ここでも、当該ピクセル値が、上記第2の補助履歴103’’内に格納されている少なくともC個のサンプルピクセル値と実質的にマッチする場合は、上述の1/4等のより高い更新確率を用いる類似のランダム更新選択ステップ(図示せず)に進み、最終的には第2の補助履歴103’’の類似の更新ステップ(図示せず)に進む。ピクセル値It(x)が上記第2の補助履歴103’’内に格納されている少なくともC個のサンプルピクセル値と実質的にマッチしない場合は、同様の手順を、たとえば上述の1/2等のさらに高い更新確率を用いて第3の補助履歴103’’’に対して実行する。ピクセル値It(x)が上記第3の補助履歴103’’’内に格納されている少なくともC個のサンプルピクセル値と実質的にマッチしない場合は、同様の手順を、たとえば上述の1等のさらに高い更新確率を用いて第4の補助履歴103IVに対して実行する。
本発明の方法では、例示の実施形態の4つの補助履歴103’、103’’、103’’’及び103IVのような各補助履歴について、背景履歴103に関して上述したものと同じ技法を援用して、空間的一貫性の確保、画像の動き補償、且つ/又は、空間サブサンプリングによる処理時間の低減を行うこともできる。
ブロックマッチングアルゴリズムが使用されるときは、ブロックマッチングアルゴリズムによって検出される動いている物体に対応するピクセルの少なくとも1つの補助履歴を、その動きに従って再割当てすることによって、この補助履歴の一貫性を向上させることができる。
画像Itにおいて、補助履歴とマッチしたピクセル値It(x)を有するピクセル101を使用して、おそらくは背景と前景との中間にある画像層を生成することができる。
少なくとも1つの補助履歴をゴースト抑制に使用することができる。この目的のために、補助履歴にマッチしたピクセル101のピクセル値It(x)を使用して、背景履歴103又はより低くランク付けされている補助履歴を更新することができる。これも図8に示す実施形態において例示されており、ピクセル値It(x)が第1の補助履歴103’とマッチする場合は、第1の補助履歴103’を更新する確率よりも低い、たとえば1/2048等の確率を用いる別の更新選択ステップ801において、次の更新ステップ802において背景履歴103を上記ピクセル値It(x)を用いて更新するか否かが決定される。これによってゴーストデータ内部に、上述の空間拡散プロセスがゴーストを除去するのを助ける小さな背景種(background seeds)が挿入される。同じ手順を使用して、ステップ202’’において第2の補助履歴103’’とマッチしたピクセル値It(x)を用いて第1の補助履歴103’を更新することができ、ステップ202’’’において第3の補助履歴103’’’とマッチしたピクセル値It(x)を用いて第2の補助履歴103’’を更新することができ、以下同様である。
本発明の背景検出方法を、たとえばプログラマブルコンピュータのような撮像装置に接続されるデータ処理装置を利用して実行することができる。その場合、データ処理装置は、データ記憶媒体を使用して、又は磁気的形態、電磁的形態、電気的形態及び/又は機械的形態の信号として、この背景検出方法を実行するための命令を受信することができる。
本発明のさまざまな実施形態において、乱数が広範に使用されている。これらの数は、乱数生成器によって提供することができる。しかしながら、このような乱数を決定論的なコンピュータによって提供することはできないため、真の乱数生成器と類似の特性を有する疑似乱数生成器を代わりに使用することができる。別の代替形態では、以前に生成された乱数又は疑似乱数の大きな索引リストを使用することもできる。
本発明の背景検出方法を、たとえば、ビデオ監視、専門家及び/若しくは消費者向けのディジタルスチルカメラ及び/若しくはディジタルビデオカメラ、画像キャプチャインタフェースを使用するコンピュータ及びビデオゲーム装置、衛星撮像及び地球観測システム、自動画像解析システム並びに/又は医用画像システムに適用することができる。
図9は、本発明の方法を実行するようにプログラムされているデータ処理装置902を内蔵しているディジタルカメラという具体的な形態にある撮像装置901による本発明の可能な応用形態を示している。図10は、本発明の方法を実行するようにプログラムされているデータ処理装置902を有するビデオゲームシステムと、ビデオ監視又は対話のために接続されている撮像装置901による本発明の別の可能な応用形態を示している。
本発明を具体的な例示の実施形態を参照して説明してきたが、特許請求の範囲において記載されるような本発明のより広い範囲から逸脱することなく、これらの実施形態にさまざまな変更及び変形を行うことができることは明らかであろう。したがって、本明細書及び図面は限定ではなく例示を意図するとみなされるべきである。

Claims (19)

  1. 撮像装置によってキャプチャされてそれぞれが複数のピクセルのセットによって形成される複数の関連画像の中から選択された画像内の背景を検出する方法であって、
    − 前記複数の画像内の確定されたピクセル位置について、複数のアドレスを含む背景履歴を、各アドレス内にサンプルピクセル値が格納されるように構築するステップと、
    − 前記選択された画像内の前記確定されたピクセル位置に対応するピクセル値を、前記背景履歴と比較するステップと、
    前記選択された画像の前記ピクセル値が前記背景履歴の少なくとも所定数のサンプルピクセル値に実質的にマッチする場合に、
    − 前記確定されたピクセル位置を、画像背景に属するものとして分類するステップと、
    − 前記背景履歴のサンプルピクセル値のうちの1つを、前記選択された画像の前記ピクセル値と置き換えることによって、前記背景履歴を更新するステップと、
    を含み、
    置き換えられる前記サンプルピクセル値の前記アドレスは、ランダムに選択されることを特徴とする、撮像装置によってキャプチャされてそれぞれが複数のピクセルのセットによって形成される複数の関連画像の中から選択された画像内の背景を検出する方法。
  2. 前記更新するステップを実行するか否かを、所定の背景履歴更新確率を用いてランダムに決定するランダム更新選択ステップをさらに含む、請求項1に記載の方法。
  3. 前記確定されたピクセル位置に対応すると共に複数のアドレスを含む少なくとも1つの補助履歴を、各アドレス内にサンプルピクセル値が格納されるように構築し、
    前記選択された画像の前記ピクセル値が前記背景履歴の少なくとも前記所定数のサンプルピクセル値に実質的にマッチしない場合に、
    − 前記選択された画像の前記ピクセル値を、前記補助履歴と比較するステップと、
    該ピクセル値が前記補助履歴内の少なくとも別の所定数の前記サンプルピクセル値と実質的にマッチする場合に、
    − 前記補助履歴を更新するか否かを、前記背景履歴更新確率係数よりも高い補助履歴更新確率係数を用いてランダムに決定するステップと、
    更新する場合に、
    − 前記補助履歴内のランダムに選択されたアドレスのサンプルピクセル値を、前記選択された画像の前記ピクセル値と置き換えることによって、前記補助履歴を更新するステップと、
    をさらに含む、請求項2に記載の方法。
  4. 前記選択された画像の前記ピクセル値が、前記補助履歴の少なくとも前記別の所定数のサンプルピクセル値と実質的にマッチする場合に、
    − 前記選択された画像の前記ピクセル値を用いて前記背景履歴を更新するか否かを、前記補助履歴更新確率よりも低い所定の背景埋め込み確率を用いてランダムに決定するステップと、
    更新する場合に、
    − 前記背景履歴内のランダムに選択されたアドレスのサンプルピクセル値を、前記選択された画像の前記ピクセル値と置き換えることによって、前記背景履歴を更新するステップと、
    をさらに含む、請求項3に記載の方法。
  5. 前記背景履歴を構築するステップは、
    前記複数の関連画像の中の、前記選択された画像以外の少なくとも1つの画像内の隣接する複数のピクセル位置のピクセル値を読み取ることと、
    該ピクセル値を、前記背景履歴の前記複数のアドレス内にランダムにソートしてサンプルピクセル値として格納することと、
    を含む、請求項1〜4のいずれか一項に記載の方法。
  6. 前記隣接する複数のピクセル位置は、前記確定されたピクセル位置の近傍内でランダムに選択される、請求項5に記載の方法。
  7. 前記選択された画像内の前記確定されたピクセル位置の前記ピクセル値が、該確定されたピクセル位置の前記背景履歴内の少なくとも前記所定数のサンプルピクセル値に実質的にマッチする場合に、
    別の複数のアドレスを含むと共に、各アドレス内にサンプルピクセル値が格納されるように構築された、隣接するピクセルに対応する背景履歴を、
    該隣接するピクセルの該背景履歴内のランダムに選択されたアドレスの前記サンプルピクセル値を、前記選択された画像内の前記確定されたピクセル位置の前記ピクセル値と置き換えることによって更新する、請求項1〜6のいずれか一項に記載の方法。
  8. 前記隣接するピクセルの位置は、前記確定されたピクセル位置の近傍内でランダムに選択される、請求項7に記載の方法。
  9. 隣接ピクセル履歴を更新するか否かを、所定の隣接ピクセル背景履歴更新確率を用いてランダムに決定するランダム隣接ピクセル履歴更新選択ステップをさらに含む、請求項7又は8のいずれか一項に記載の方法。
  10. − 前記選択された画像を複数のサブサンプリング領域に分割するステップと、
    − 各サブサンプリング領域内から1つの確定されたピクセル位置を、サブサンプリング領域全体を表すものとしてランダムに選択するステップと、
    をさらに含む、請求項1〜9のいずれか一項に記載の方法。
  11. パン又はズームのような画像の動きに応じて、別のピクセル位置の背景履歴を、前記画像内の前記確定されたピクセル位置に再割当てするステップをさらに含む、請求項1〜10のいずれか一項に記載の方法。
  12. 前記再割当てされる背景履歴の前記ピクセル位置は、前記撮像装置の運動センサによって検出される動きに基づく、請求項11に記載の方法。
  13. 前記再割当てされる背景履歴の前記ピクセル位置は、前記撮像装置のズーム値に基づく、請求項11又は12に記載の方法。
  14. 前記再割当てされる背景履歴の前記ピクセル位置は、ブロックマッチングアルゴリズムによって得られる対応に基づいて決定される、請求項11に記載の方法。
  15. 請求項1〜14のいずれか一項に記載の画像背景認識方法を実行するようにプログラムされた、データ処理装置。
  16. 請求項15に記載のデータ処理装置が内蔵されている、撮像装置。
  17. 少なくとも1つの撮像装置と、請求項15に記載のデータ処理装置とを備える、ビデオ監視システム。
  18. 少なくとも1つの撮像装置と、請求項15に記載のデータ処理装置とを備える、ビデオゲームシステム。
  19. データ処理装置が請求項1〜15のいずれか一項に記載の画像背景認識方法を実行するための命令セットを含む、データ記憶媒体。
JP2010515449A 2007-07-08 2008-06-16 視覚背景抽出器 Active JP4699564B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP07112011.7 2007-07-08
EP07112011A EP2015252B1 (en) 2007-07-08 2007-07-08 Visual background extractor
PCT/EP2008/057563 WO2009007198A1 (en) 2007-07-08 2008-06-16 Visual background extractor

Publications (2)

Publication Number Publication Date
JP2010532898A JP2010532898A (ja) 2010-10-14
JP4699564B2 true JP4699564B2 (ja) 2011-06-15

Family

ID=39171395

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010515449A Active JP4699564B2 (ja) 2007-07-08 2008-06-16 視覚背景抽出器

Country Status (6)

Country Link
US (1) US8009918B2 (ja)
EP (1) EP2015252B1 (ja)
JP (1) JP4699564B2 (ja)
AT (1) ATE458231T1 (ja)
DE (1) DE602007004841D1 (ja)
WO (1) WO2009007198A1 (ja)

Families Citing this family (66)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009115621A (ja) * 2007-11-06 2009-05-28 Toshiba Corp 移動体画像追尾装置
JP4810582B2 (ja) * 2009-03-26 2011-11-09 株式会社東芝 移動体画像追尾装置および方法
JP5927180B2 (ja) * 2010-04-30 2016-06-01 ヴィユーコンプ インクVucomp, Inc. 画像の異形を識別するための画像データの処理方法、システムおよびプログラム
WO2012006318A1 (en) 2010-07-07 2012-01-12 Vucomp, Inc. Marking system for computer-aided detection of breast abnormalities
KR20120052767A (ko) * 2010-11-16 2012-05-24 한국전자통신연구원 영상 분리 장치 및 방법
EP2463821A1 (en) 2010-12-08 2012-06-13 Alcatel Lucent Method and system for segmenting an image
JP5603796B2 (ja) * 2011-02-10 2014-10-08 株式会社キーエンス 画像検査装置、画像検査方法、及びコンピュータプログラム
JP2012253667A (ja) * 2011-06-06 2012-12-20 Sony Corp 画像処理装置、画像処理方法、及びプログラム
KR101838342B1 (ko) * 2011-10-26 2018-03-13 아이큐브드 연구소 주식회사 화상 처리 장치, 화상 처리 방법, 및 기록매체
KR101393570B1 (ko) * 2012-12-28 2014-05-27 현대자동차 주식회사 선택적 조명을 이용한 손 제스처 인식 방법 및 시스템
KR102085034B1 (ko) * 2013-06-10 2020-03-05 에스케이 텔레콤주식회사 영상의 전경과 배경을 분리하여 전경영상을 검출하는 방법 및 장치
CN103456028B (zh) * 2013-08-30 2016-08-31 浙江立元通信技术有限公司 一种运动目标检测方法
US10634761B2 (en) 2013-12-13 2020-04-28 Position Imaging, Inc. Tracking system with mobile reader
US12000947B2 (en) 2013-12-13 2024-06-04 Position Imaging, Inc. Tracking system with mobile reader
US10146667B2 (en) 2014-04-10 2018-12-04 Entit Software Llc Generalized snapshots based on multiple partial snapshots
WO2015156808A1 (en) * 2014-04-10 2015-10-15 Hewlett-Packard Development Company, L.P. Partial snapshots for creating generalized snapshots
CN104093001B (zh) * 2014-07-23 2017-05-03 山东建筑大学 一种在线动态视频浓缩方法
US9674406B2 (en) 2014-08-15 2017-06-06 University Of Washington Using dynamic mode decomposition for real-time background/foreground separation in video
CN104680521B (zh) * 2015-02-06 2018-04-06 哈尔滨工业大学深圳研究生院 一种改进的背景建模及前景检测方法
CN104835179B (zh) * 2015-03-30 2018-01-12 复旦大学 基于动态背景自适应的改进ViBe背景建模方法
US11416805B1 (en) 2015-04-06 2022-08-16 Position Imaging, Inc. Light-based guidance for package tracking systems
US10148918B1 (en) 2015-04-06 2018-12-04 Position Imaging, Inc. Modular shelving systems for package tracking
US11501244B1 (en) 2015-04-06 2022-11-15 Position Imaging, Inc. Package tracking systems and methods
US10853757B1 (en) 2015-04-06 2020-12-01 Position Imaging, Inc. Video for real-time confirmation in package tracking systems
US9712828B2 (en) 2015-05-27 2017-07-18 Indian Statistical Institute Foreground motion detection in compressed video data
CN104899839A (zh) * 2015-06-05 2015-09-09 河海大学 基于ViBe算法的鬼影快速抑制方法
CN106485713B (zh) * 2015-08-31 2020-03-27 上海悠络客电子科技有限公司 视频前景检测方法
CN106488180A (zh) * 2015-08-31 2017-03-08 上海悠络客电子科技有限公司 视频阴影检测方法
CN105389829A (zh) * 2015-10-15 2016-03-09 上海交通大学 一种基于嵌入式处理器的低复杂度动态目标检测与跟踪方法
CN105741319B (zh) * 2016-01-22 2018-05-08 浙江工业大学 基于盲目更新策略和前景模型的改进视觉背景提取方法
CN105741277A (zh) * 2016-01-26 2016-07-06 大连理工大学 基于ViBe算法与SLIC超像素的背景差分法
US10102635B2 (en) 2016-03-10 2018-10-16 Sony Corporation Method for moving object detection by a Kalman filter-based approach
CN105931267B (zh) * 2016-04-15 2019-05-14 华南理工大学 一种基于改进ViBe算法的运动物体检测跟踪方法
EP3246874B1 (en) 2016-05-16 2018-03-14 Axis AB Method and apparatus for updating a background model used for background subtraction of an image
EP3255585B1 (en) 2016-06-08 2018-05-09 Axis AB Method and apparatus for updating a background model
US10729396B2 (en) 2016-08-31 2020-08-04 International Business Machines Corporation Tracking anatomical findings within medical images
US20180060535A1 (en) * 2016-08-31 2018-03-01 International Business Machines Corporation Updating probabilities of conditions based on annotations on medical images
US11436553B2 (en) 2016-09-08 2022-09-06 Position Imaging, Inc. System and method of object tracking using weight confirmation
TWI615806B (zh) 2016-10-11 2018-02-21 威聯通科技股份有限公司 影像背景學習方法及電子裝置
WO2018068300A1 (zh) * 2016-10-14 2018-04-19 富士通株式会社 图像处理方法和装置
CN106598046B (zh) * 2016-11-29 2020-07-10 北京儒博科技有限公司 机器人躲避控制方法和装置
US10634503B2 (en) 2016-12-12 2020-04-28 Position Imaging, Inc. System and method of personalized navigation inside a business enterprise
US10455364B2 (en) 2016-12-12 2019-10-22 Position Imaging, Inc. System and method of personalized navigation inside a business enterprise
US10634506B2 (en) 2016-12-12 2020-04-28 Position Imaging, Inc. System and method of personalized navigation inside a business enterprise
US11120392B2 (en) 2017-01-06 2021-09-14 Position Imaging, Inc. System and method of calibrating a directional light source relative to a camera's field of view
US10269123B2 (en) * 2017-01-09 2019-04-23 Qualcomm Incorporated Methods and apparatus for video background subtraction
US10891930B2 (en) * 2017-06-29 2021-01-12 Dolby International Ab Methods, systems, devices and computer program products for adapting external content to a video stream
US11450148B2 (en) 2017-07-06 2022-09-20 Wisconsin Alumni Research Foundation Movement monitoring system
US10810414B2 (en) 2017-07-06 2020-10-20 Wisconsin Alumni Research Foundation Movement monitoring system
US10482613B2 (en) 2017-07-06 2019-11-19 Wisconsin Alumni Research Foundation Movement monitoring system
CN109308711B (zh) * 2017-07-26 2021-11-05 富士通株式会社 目标检测方法、装置及图像处理设备
LU100486B1 (en) * 2017-10-20 2019-04-25 Luxembourg Inst Science & Tech List Automatic water sampler apparatus
KR102004724B1 (ko) * 2017-11-30 2019-07-29 (주)인트인 정자 검출 방법 및 이를 구현하기 위한 프로그램을 기록한 기록매체
CN108040221B (zh) * 2017-11-30 2020-05-12 江西洪都航空工业集团有限责任公司 一种智能视频分析与监控***
CN108806314B (zh) * 2018-06-12 2021-01-05 横店集团得邦照明股份有限公司 基于背景建模监测目标与车位使用情况的智能调光led灯
EP3582181B1 (en) * 2018-06-14 2020-04-01 Axis AB Method, device and system for determining whether pixel positions in an image frame belong to a background or a foreground
JP7154045B2 (ja) * 2018-06-14 2022-10-17 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法
CN109035296A (zh) * 2018-06-28 2018-12-18 西安理工大学 一种改进的视频中运动物体检测方法
EP3853772A4 (en) 2018-09-21 2022-06-22 Position Imaging, Inc. MACHINE LEARNING ASSISTED SELF-IMPROVING SYSTEM AND METHOD FOR OBJECT IDENTIFICATION
US11089232B2 (en) 2019-01-11 2021-08-10 Position Imaging, Inc. Computer-vision-based object tracking and guidance module
CN109978916B (zh) * 2019-03-11 2021-09-03 西安电子科技大学 基于灰度图像特征匹配的Vibe运动目标检测方法
US11200678B2 (en) * 2019-09-17 2021-12-14 Sony Corporation Image-based mask frame interpolation
US11587361B2 (en) 2019-11-08 2023-02-21 Wisconsin Alumni Research Foundation Movement monitoring system
CN111666881B (zh) * 2020-06-08 2023-04-28 成都大熊猫繁育研究基地 一种大熊猫踱步、吃竹子、发情行为跟踪分析方法
CN111815673A (zh) * 2020-06-23 2020-10-23 四川虹美智能科技有限公司 运动目标检测方法、装置及可读介质
CN112084880A (zh) * 2020-08-14 2020-12-15 江铃汽车股份有限公司 一种图像处理方法、装置、存储介质及设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1993005488A1 (en) * 1991-09-12 1993-03-18 Electronic Data Systems Corporation Image analyser
JP2004265292A (ja) * 2003-03-04 2004-09-24 Yamatake Corp 画像処理方法および装置
JP2005150840A (ja) * 2003-11-11 2005-06-09 Shikoku Res Inst Inc 水質監視装置およびそれに用いる魚画像認識方法
JP2007034733A (ja) * 2005-07-27 2007-02-08 Toshiba Corp 対象物領域検出装置、方法およびプログラム
JP2007328755A (ja) * 2006-05-08 2007-12-20 Sony Corp 画像処理装置、画像処理方法およびプログラム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
NL184298C (nl) 1979-07-19 1989-06-01 Philips Nv Inrichting voor verschilbeeldbepaling.
US4746770A (en) * 1987-02-17 1988-05-24 Sensor Frame Incorporated Method and apparatus for isolating and manipulating graphic objects on computer video monitor
US5109435A (en) * 1988-08-08 1992-04-28 Hughes Aircraft Company Segmentation method for use against moving objects
US5534917A (en) * 1991-05-09 1996-07-09 Very Vivid, Inc. Video image based control system
US6061476A (en) 1997-11-24 2000-05-09 Cognex Corporation Method and apparatus using image subtraction and dynamic thresholding
DE19941644A1 (de) 1999-08-27 2001-03-01 Deutsche Telekom Ag Verfahren zur echtzeitfähigen Segmentierung von Videoobjekten bei bekanntem stationären Bildhintergrund
US7136525B1 (en) 1999-09-20 2006-11-14 Microsoft Corporation System and method for background maintenance of an image sequence
US7058204B2 (en) 2000-10-03 2006-06-06 Gesturetek, Inc. Multiple camera control system
WO2003036557A1 (en) 2001-10-22 2003-05-01 Intel Zao Method and apparatus for background segmentation based on motion localization
US7480079B2 (en) 2003-09-09 2009-01-20 Siemens Corporate Research, Inc. System and method for sequential kernel density approximation through mode propagation
US7372975B2 (en) 2004-12-06 2008-05-13 Mitsubishi Electric Research Laboratory, Inc. Method for secure background modeling in images
US7418113B2 (en) 2005-04-01 2008-08-26 Porikli Fatih M Tracking objects in low frame rate videos

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1993005488A1 (en) * 1991-09-12 1993-03-18 Electronic Data Systems Corporation Image analyser
JP2004265292A (ja) * 2003-03-04 2004-09-24 Yamatake Corp 画像処理方法および装置
JP2005150840A (ja) * 2003-11-11 2005-06-09 Shikoku Res Inst Inc 水質監視装置およびそれに用いる魚画像認識方法
JP2007034733A (ja) * 2005-07-27 2007-02-08 Toshiba Corp 対象物領域検出装置、方法およびプログラム
JP2007328755A (ja) * 2006-05-08 2007-12-20 Sony Corp 画像処理装置、画像処理方法およびプログラム

Also Published As

Publication number Publication date
EP2015252A1 (en) 2009-01-14
EP2015252B1 (en) 2010-02-17
US20100208998A1 (en) 2010-08-19
JP2010532898A (ja) 2010-10-14
ATE458231T1 (de) 2010-03-15
DE602007004841D1 (de) 2010-04-01
US8009918B2 (en) 2011-08-30
WO2009007198A1 (en) 2009-01-15

Similar Documents

Publication Publication Date Title
JP4699564B2 (ja) 視覚背景抽出器
Balaji et al. A survey on moving object tracking using image processing
Barnich et al. ViBe: A universal background subtraction algorithm for video sequences
Zhang et al. Motion analysis
EP1836683B1 (en) Method for tracking moving object in video acquired of scene with camera
Karasulu et al. Moving object detection and tracking in videos
Van Droogenbroeck et al. ViBe: A disruptive method for background subtraction
JP2008518331A (ja) リアルタイムビデオ動き解析を通じたビデオコンテンツ理解
JP2008243187A (ja) ビデオのフレームのシーケンスにおいてオブジェクトを追跡するコンピュータに実装される方法
Porikli et al. Object tracking in low-frame-rate video
Hassan et al. An adaptive sample count particle filter
Cheng et al. Advanced background subtraction approach using Laplacian distribution model
Garcia-Rodriguez et al. Real time motion estimation using a neural architecture implemented on GPUs
Talu et al. A hybrid tracking method for scaled and oriented objects in crowded scenes
Pathan et al. A survey on moving object detection and tracking methods
Lee et al. Multisensor fusion-based object detection and tracking using active shape model
CN110322474B (zh) 一种基于无人机平台的图像动目标实时检测方法
Marfil et al. Real-time object tracking using bounded irregular pyramids
Lindstrom et al. Background and foreground modeling using an online EM algorithm
Junejo et al. Foreground extraction for freely moving RGBD cameras
Almohaimeed et al. A comparative study of different oject tracking methods in a video
Pawar et al. Survey on Object Detection from Video Sequence
Chandrajit et al. Data Association and Prediction for Tracking Multiple Objects
Kumar et al. An adaptive Bayesian technique for tracking multiple objects
Kumar et al. Adaptive multiple object tracking using colour and segmentation cues

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110127

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20110127

TRDD Decision of grant or rejection written
A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20110218

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110302

R150 Certificate of patent or registration of utility model

Ref document number: 4699564

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250