JP2006318474A - 画像シーケンス内のオブジェクトを追跡するための方法及び装置 - Google Patents
画像シーケンス内のオブジェクトを追跡するための方法及び装置 Download PDFInfo
- Publication number
- JP2006318474A JP2006318474A JP2006131814A JP2006131814A JP2006318474A JP 2006318474 A JP2006318474 A JP 2006318474A JP 2006131814 A JP2006131814 A JP 2006131814A JP 2006131814 A JP2006131814 A JP 2006131814A JP 2006318474 A JP2006318474 A JP 2006318474A
- Authority
- JP
- Japan
- Prior art keywords
- image
- sequence
- tracking
- contour
- color space
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims description 49
- 238000012545 processing Methods 0.000 claims abstract description 17
- 238000004519 manufacturing process Methods 0.000 claims description 11
- 238000012937 correction Methods 0.000 claims description 5
- 238000001914 filtration Methods 0.000 claims description 4
- 239000002245 particle Substances 0.000 claims description 4
- 230000011218 segmentation Effects 0.000 abstract description 26
- 238000009826 distribution Methods 0.000 description 16
- 230000006870 function Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 3
- 238000012805 post-processing Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 230000015556 catabolic process Effects 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 238000006731 degradation reaction Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 241000270295 Serpentes Species 0.000 description 1
- 238000004737 colorimetric analysis Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/14—Picture signal circuitry for video frequency region
- H04N5/142—Edging; Contouring
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/251—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/24—Aligning, centring, orientation detection or correction of the image
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/64—Circuits for processing colour signals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20116—Active contour; Active surface; Snakes
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
【課題】オブジェクトの境界又は輪郭の推定に基づいたセグメンテーションの効率性とオブジェクトに関係した色領域の追跡のロバストネスとを併せ持ったセグメンテーションとオブジェクト追跡のための少なくとも部分的に自動化された処理を提供することにより、人間のオペレータの関与を少なくすること。
【解決手段】空間領域において、基準画像と呼ばれるシーケンス内の1つの画像の中の前記オブジェクトを該オブジェクトの輪郭の推定によりセグメント化し、色空間内で基準画像内のセグメント化されたオブジェクトのピクセルに対応する値に基づいて、シーケンス内の他画像における前記オブジェクトの輪郭を追跡する。
【選択図】図1
【解決手段】空間領域において、基準画像と呼ばれるシーケンス内の1つの画像の中の前記オブジェクトを該オブジェクトの輪郭の推定によりセグメント化し、色空間内で基準画像内のセグメント化されたオブジェクトのピクセルに対応する値に基づいて、シーケンス内の他画像における前記オブジェクトの輪郭を追跡する。
【選択図】図1
Description
本発明は画像シーケンス内のオブジェクトを追跡するための装置及び方法に関する。本方法は特に画像シーケンスのポストプロダクションに適用されるものである。
多くの用途において、特にポストプロダクション、ビデオコーディング、及びビデオインデクシングの分野において、画像シーケンス内のオブジェクトをセグメント化及び追跡することが必要となることがある。複雑な形状をとることもあるオブジェクトのセグメンテーションと追跡は、現在のところ完全には解決されていない画像処理における2つの問題を成している。実際、現在の解決手段は、自動化された処理によってポストプロダクション用途に必要な正確度とロバストネスを達成することができない。したがって、特に色補正専用の用途でポストプロダクションのプラットフォームにおいて使用しうるセグメンテーション及び追跡のツールは動作が遅く、使用していてうんざりする。実際、許容しうる品質を持った結果を得るためには、人間のオペレータが少なからず関与することが必要である。これらのプラットフォームでは、オブジェクトは「領域」法と呼ばれる手法を用いてセグメント化される。この領域法は、オブジェクトの測色法上の内容に基づいてオブジェクトを背景から分離するものである。オペレータは、色相、彩度、明度(HSL)のような所定の表現空間内で、オブジェクトのすべての色を含むが背景の色は含まない領域を分離しようとする。オペレータは、選択された領域の中に自らの色を持つピクセルの−例えば強調表示された−画像上での視覚的表現に導かれて、この色領域の領域画定を逐次改善していくことにより前進する。理想的には、これらすべてのピクセルは、改善プロセスの終了時には、セグメント化すべきオブジェクトに対応する画像の領域と一致しなければならない。このプロセスをオブジェクトの境界を示す窓に限定した場合でも、色に基づいたセグメンテーションは一般にかなりの程度のオペレータの関与を必要とする遅々としたうんざりするような操作である。
アメリカ合衆国特許第6590999号
D. J. Williams and M. Shah, "A Fast Algorithm for Active Contours and Curvature Estimation", CVGIP journal: Image Understanding, volume 55 no.1, January 1992, pp.14 - 26
P. Perez, C. Hue, J. Vermaak and M. Gangnet, "Color-Based Probabilistic Tracking", in proceedings of "European Conference on Computer Vision"conference, volume 1, pp.661 - 675, 2002
本発明の課題は上記の欠点のうちの少なくとも1つを多少とも解消することである。より特定的には、本発明は、オブジェクトの境界又は輪郭の推定に基づいたセグメンテーションの有効性とオブジェクトに関係した色領域の追跡のロバストネスとを併せ持ったセグメンテーションとオブジェクト追跡のための少なくとも部分的に自動化された処理を提供することにより、人間のオペレータの関与を少なくすることを課題としている。
上記課題は、空間領域において、基準画像と呼ばれるシーケンス内の1つの画像の中の前記オブジェクトを該オブジェクトの輪郭の推定によりセグメント化するステップと、前記色空間内で前記基準画像内のセグメント化された前記オブジェクトのピクセルに対応する値に基づいて、シーケンス内の他画像における前記オブジェクトの輪郭を追跡するステップを有することを特徴とする画像シーケンス内のオブジェクトを追跡する方法により解決される。
同様に、上記課題は、空間領域において、基準画像と呼ばれるシーケンス内の1つの画像の中の前記オブジェクトを該オブジェクトの輪郭の推定によりセグメント化するための手段と、前記色空間内で前記基準画像内のセグメント化された前記オブジェクトのピクセルに対応する値に基づいて、シーケンス内の他画像における前記オブジェクトの輪郭を追跡するための手段を有することを特徴とする画像シーケンス内のオブジェクトを追跡する装置により解決される。
本発明は画像シーケンス内のオブジェクトを追跡する方法を提供する。各画像は複数のピクセル又は像点を含んでおり、各ピクセル又は像点には、色空間と呼ばれる決められた表現空間内の少なくとも1つの値が対応付けられている。本方法は、
− 空間領域において、基準画像と呼ばれるシーケンス内の1つの画像の中のオブジェクトを該オブジェクトの輪郭の推定によりセグメント化するステップ、及び
− 色空間内で基準画像内のセグメント化されたオブジェクトのピクセルに対応する値に基づいて、シーケンス内の他画像におけるオブジェクトの輪郭を追跡するステップ
を有している。
− 空間領域において、基準画像と呼ばれるシーケンス内の1つの画像の中のオブジェクトを該オブジェクトの輪郭の推定によりセグメント化するステップ、及び
− 色空間内で基準画像内のセグメント化されたオブジェクトのピクセルに対応する値に基づいて、シーケンス内の他画像におけるオブジェクトの輪郭を追跡するステップ
を有している。
好ましくは、オブジェクトの輪郭を追跡するステップは、
− 基準画像内のセグメント化されたオブジェクトを表すオブジェクト領域を色空間内に画定するステップと、
− バウンディングボックスと呼ばれるオブジェクトの境界を示す窓を基準画像内に画定するステップと、
− シーケンス内の他画像におけるバウンディングボックスの位置を追跡するステップと、
− シーケンス内の他画像の各々における並びに色空間内のオブジェクト領域におけるバウンディングボックスの位置に基づいて、シーケンス内の他画像内でオブジェクトをセグメント化するステップを含む。
− 基準画像内のセグメント化されたオブジェクトを表すオブジェクト領域を色空間内に画定するステップと、
− バウンディングボックスと呼ばれるオブジェクトの境界を示す窓を基準画像内に画定するステップと、
− シーケンス内の他画像におけるバウンディングボックスの位置を追跡するステップと、
− シーケンス内の他画像の各々における並びに色空間内のオブジェクト領域におけるバウンディングボックスの位置に基づいて、シーケンス内の他画像内でオブジェクトをセグメント化するステップを含む。
有利には、シーケンス内の他画像内でオブジェクトをセグメント化するステップは、シーケンス内の1つの画像について、バウンディングボックス内に位置する画像の各ピクセルに、該ピクセルに対応する前記少なくとも1つの値が前記色空間内に画定された前記オブジェクト領域に属するか否かを示すラベルを対応付ける。
有利には、バウンディングボックスを追跡するステップは領域の色に基づいた特定の領域粒子フィルタリングアルゴリズムを用いて実行される。
ある1つの特徴によれば、基準画像内でオブジェクトをセグメント化するステップは動的輪郭に基づいたアルゴリズムを用いて実行される。
別の特徴によれば、基準画像内でオブジェクトをセグメント化するステップはレベルセットに基づいたアルゴリズムを用いて実行される。
好ましくは、基準画像はシーケンスの第1画像であり、色空間は以下の集合、
− (赤、緑、青)、
− (色相、彩度、明度)、及び
− (色相、彩度、バリュー)
の中に包含されている。
− (赤、緑、青)、
− (色相、彩度、明度)、及び
− (色相、彩度、バリュー)
の中に包含されている。
本発明はまた画像シーケンス内のオブジェクトを追跡する装置にも関する。各画像は複数のピクセル又は像点を含んでおり、各ピクセル又は像点には、色空間と呼ばれる決められた表現空間内の少なくとも1つの値が対応付けられている。この装置は、
− 空間領域において、基準画像と呼ばれるシーケンス内の1つの画像の中の前記オブジェクトを該オブジェクトの輪郭の推定によりセグメント化するための手段と、
− 前記色空間内で前記基準画像内のセグメント化された前記オブジェクトのピクセルに対応する値に基づいて、シーケンス内の他画像における前記オブジェクトの輪郭を追跡するための手段
を有している。
− 空間領域において、基準画像と呼ばれるシーケンス内の1つの画像の中の前記オブジェクトを該オブジェクトの輪郭の推定によりセグメント化するための手段と、
− 前記色空間内で前記基準画像内のセグメント化された前記オブジェクトのピクセルに対応する値に基づいて、シーケンス内の他画像における前記オブジェクトの輪郭を追跡するための手段
を有している。
本発明はまた、シーケンスを処理するための手段とオブジェクト追跡のための装置とを有する画像シーケンスのポストプロダクションのための装置にも関する。
本発明は、ソース画像と呼ばれる画像のシーケンスの中のオブジェクトをセグメント化及び追跡する方法に関する。シーケンスの各画像はピクセル又は像点を有している。各ピクセルには、色空間と呼ばれる決められた表現空間内の少なくとも1つの値(例えば、明度の値)が対応付けられている。例えば、3つの値が以下の空間、すなわち、RGB赤緑青空間、HSL色相・彩度・明度空間、HSV色相・彩度・バリュー空間内の画像の各ピクセルに対応付けられている。また、本発明による方法を変えてしまうことなく、画像ピクセルに3つより多くの値が対応付けられた色空間で作業することも考えられる。以下では、記述を簡単にするために、セグメント化すべきオブジェクトは1つであると見なす。本方法は、追跡の行われるシーケンス全体を通してオブジェクトが分離している限り、複数のオブジェクトに直接的に拡張可能である。オブジェクトをセグメント化及び追跡する方法は図1及び2に示されている。これらの図では、図示されたモジュールは、物理的に区別可能な単位に相応する場合もいない場合もあり得る機能単位である。例えば、これらのモジュール又はそれらのうちの幾つかは単一のコンポーネントにまとめてもよいし、又は同一のソフトウェアのさまざまな機能を構成するものであってもよい。あるいは、逆に、あるモジュールが別々の物理的実体から構成されていてもよい。本発明による方法は2つのメインステップに分かれている:
− 少なくとも1つの基準画像(例えば、シーケンスの第1ソース画像)においてオブジェクトをセグメント化する第1のステップ10、ただし、このセグメンテーションは画像領域又は空間領域におけるオブジェクトの輪郭の推定により行われる;
− 色空間内でオブジェクトの輪郭を追跡するステップ11。
− 少なくとも1つの基準画像(例えば、シーケンスの第1ソース画像)においてオブジェクトをセグメント化する第1のステップ10、ただし、このセグメンテーションは画像領域又は空間領域におけるオブジェクトの輪郭の推定により行われる;
− 色空間内でオブジェクトの輪郭を追跡するステップ11。
あるいは、セグメンテーションステップ10はセグメンテーションマスクの生成を可能にする。このマスクは、セグメント化されたオブジェクトにピクセルが属しているか否かを表すラベル(「オブジェクト」ラベル又は「背景」ラベル)をソース画像の各ピクセルに対応付けるバイナリ画像である。ステップ11は、図2において参照番号21〜24が付された複数のステップを含んでいる。これらのステップは、色空間内において、ステップ10で得られたオブジェクトの輪郭の内側にあるピクセルに対応した値を含んだ領域を画定し、これらのピクセルを背景のピクセルから区別するものである。その後、この領域は処理されたシーケンスに沿って追跡され、シーケンスの各ソース画像におけるオブジェクトのセグメンテーションは、基準画像内で計算された色空間の領域の内側にあるピクセルを識別することにより達成される。
この混成的解決手段は、色の識別に基づくセグメンテーションよりも速く、うんざりすることの少ない空間領域でのセグメンテーションと、空間領域での動き推定によるオブジェクトの輪郭の追跡よりも形状の変化に対してロバストな色空間における追跡とを結び付けたものである。その結果として、この解決手段はセグメンテーションとオブジェクト追跡のプロセスにおけるユーザの全体的な介入を少なくし、プロセスの有効性の改善を可能にする。
本方法の第1のステップ10は、画像内のオブジェクトと背景との間のオブジェクト境界を推定することにより、基準画像(例えば、シーケンスの第1画像)において、オブジェクトと背景を区別するものである。この境界はオブジェクトの輪郭とも呼ばれる。この目的のためには、動的輪郭(「スネーク」とも呼ばれる)又はレベルセットに基づいた画像処理アルゴリズムを使用するのが有利である。これらのアルゴリズムはオブジェクトの輪郭の近似を正確な輪郭に自動的に収束させることができる。動的輪郭法によれば、オブジェクトの輪郭の近似は、オペレータによって、制御点−ポリゴンの頂点−により画定されるパラメータつき曲線−例えば、ポリゴン−の形で与えられる。より詳細には、オペレータは、スクリーンに表示されたオブジェクトをセグメント化することを望む場合、オブジェクト外部にオブジェクト境界の近似的輪郭をプロットする。動的輪郭に基づいた画像処理アルゴリズムを使用することにより、初期近似輪郭はセグメント化すべきオブジェクトの実際の輪郭に収束する。図3は、セグメント化すべきオブジェクトの輪郭30と、収束プロセスの開始時点における又は収束プロセスの中間段階における動的輪郭31を示している。動的輪郭は、この動的輪郭を形成する弧の端点に相当する一定数の制御点Viにより画定される。動的輪郭がポリゴンによりモデル化される場合には、これらの弧は直線分であり、制御点の集合はこれらの線分の端点を含んでいる。図3においてViで参照されている制御点の数は、オブジェクトの輪郭の複雑さの関数として変化する。動的輪郭は画像内のパラメータつき曲線として定義され、動的輪郭曲線それ自体と画像に依存する外力とに基づいて計算された内力の影響の下でオブジェクトの輪郭に反復的に漸近していく。内力は曲線の形状が正則性条件を満たすように束縛し、外力は画像の内容に関連して曲線の位置を最適化する。これらの力の印加はエネルギーと呼ばれる汎関数を最小化することにより現れる。エネルギー汎関数の大域的最小化を行うことにより制御点の全集合の同時収束を得ることも理論的には可能だが、動的輪郭の収束は実際には非特許文献1において初めて提案されたグリーディーアルゴリズムを援用して達成される。このアルゴリズムによれば、エネルギーの最小化は動的輪郭が安定するまで各制御点上で繰り返し実行される。図3を参照すると、Viは動的輪郭の制御点の現在位置を表している。したがって、グリーディーアルゴリズムは、Viの近傍に画定された探索窓Fiの各制御点Vjについて、ViをVjで置き換えることにより得られた動的輪郭のエネルギーを計算し、新しい制御点として、最小エネルギーを供給する窓Fiの中にある制御点を選択することにより、Viをオブジェクトの輪郭に収束させるものである。この窓の内部の各点は新しい制御点の位置の候補点である。したがって、制御点はエネルギーが最小となる候補点に向かって窓内を移動する。このプロセスは動的輪郭が収束するまですべての制御点に対して順次適用される。窓のサイズは、例えば、21ピクセル×21ピクセルで固定してよい。他の実施形態では、窓のサイズは異なっていてよい。使用される窓のサイズは目的の用途と処理される画像の解像度とに依存する。一般に、初期近似に必要とされる正確度を適度なレベルに維持するために、窓は解像度が高いほどより大きくなる。
制御点ViのエネルギーE(i,Vj)は、例えば、Viの近傍における各候補点Vjについて、以下の3つの項の加重和又は線形結合として定義される:
これらの項の重み付けは、オブジェクトの輪郭の特性の関数として、ユーザにより定義される。例えば形状が非常に不規則な場合には、ユーザは正則化項の重みを減らすことができる。上記のような動的輪郭によるセグメンテーションは、オブジェクトの輪郭の検出に本質的に依存している。有利には、結果として得られるセグメンテーションの品質とロバストネスを改善するために、色分布の均一性と動的輪郭曲線の両側のテクスチャーの均一性を促進する特別な項を追加することも可能である。多くの状況において、動的輪郭法はセグメンテーションプロセスを自動化することによりセグメンテーションプロセスを容易にすることができる。また、動的輪郭の収束が速いため、プロセスは加速される。さらに、オブジェクトの輪郭を推定する際の誤差の補正は、オペレータ側で、アルゴリズムが正しく収束しなかった画像区域における動的輪郭の制御点の僅かな調整をいくつかするだけでよい。また、動的輪郭に類似したアルゴリズムを使用した方が、専ら色空間内での識別に基づいたセグメンテーションを使用するよりも効果的である。実際、オペレータは画像に対して直接に、また色空間を通して間接的に作業するので、色空間内でのセグメンテーションとソース画像における結果の視覚化との間を行ったり来たりしなくて済む。さらに、色に基づいた識別基準に加えて、オブジェクトの境界において画像内の前線の存在を考慮するので、セグメンテーションプロセスの信頼性とロバストネスが改善される。本発明に従って、局所的正確度の要求と適合しない局所的正確度の低下が輪郭において生じるとすぐに、推定された輪郭をオペレータが手動で調整する(例えば、いくつかの制御点の位置を変更することにより)ことができるように、セグメンテーションの結果をディスプレイ装置上で視覚化すると有利である。
オブジェクトを追跡するステップ11は色空間内で実行される。色空間内でのこの追跡は、動き推定を必要とする空間領域内でのオブジェクトの追跡よりもオブジェクトの輪郭の形状の急速な変化に対してロバストである。空間領域内でのオブジェクト追跡法に比べて、色空間内での追跡はオブジェクトの形状の急速な変化と、動き推定では予測することのできない変化(非剛性オブジェクト、別の前景オブジェクトがオブジェクトを遮る、画像平面外での3D運動)とに対するロバストネスが大きいという利点を示す。
ある1つの実施形態では、色空間内でオブジェクトを追跡するステップは図2に示されている4つのステップを含む。第1のステップ21は、基準画像において、ステップ10で推定されたオブジェクトの輪郭に基づいて色空間をオブジェクト領域と背景領域の2つの領域に分割する。色は決められた空間(例えば、RGB、HSV)で表現されるので、このステップは、この色空間内にオブジェクト領域を画定するために、この空間内で、オブジェクトに属するピクセル、すなわち、セグメント化されたオブジェクトの境界を定める輪郭の内側にあるピクセルに対応した色を分離するものである。背景領域はオブジェクト領域に割り当てられていない色により画定される。色空間内のオブジェクト領域は、例えば、ステップ10で境界が定められたオブジェクトの輪郭の内側にある点の色ヒストグラムの台により画定される。シーケンス内でのオブジェクトの追跡を色の変化と特に照明の変化とに対してよりロバストにするためには、オブジェクトの近傍における背景の色ヒストグラムの台も考慮することによって色空間内にオブジェクト領域を画定すると有利である。考え方としては、色空間内で、オブジェクトの色ヒストグラムの台により画定された領域をオブジェクトのヒストグラムの台とオブジェクトの近傍における背景のヒストグラムの台との間の分離線まで拡大するというものである。実施の手順としては、オブジェクトの色領域を、オブジェクトのヒストグラムの台までの距離がオブジェクトの近傍における背景の色ヒストグラムの台までの距離よりも短くなるような色空間の点の集合として定義する。
ステップ22は、バウンディングボックスと呼ばれるオブジェクトの境界を示す窓を基準画像内に画定するものである。この窓により、ビデオシーケンスに沿ってずっとオブジェクトを追跡することができる。この窓は単純な幾何学形状、一般には長方形又は楕円形として画定される。形状の選択は基準ソース画像内で推定されたオブジェクトの輪郭の幾何学的パラメータの関数として自動的に行ってもよい。バウンディングボックスの寸法は、推定された輪郭までの距離が最小となることが保証されるように決定される。
次のステップ23はシーケンスの各画像においてバウンディングボックスを追跡するものである。このステップは高い正確度を要求しない。実際、色空間内での良好な識別特性を維持するには、この窓がシーケンスに沿ってオブジェクトの外側に留まり、オブジェクトの輪郭から余りに遠く離れないようにするだけで十分である。したがって、追跡は、少数のパラメータしか必要とせず、かつ計算負荷の点でもロバストで低コストのオブジェクト追跡アルゴリズムを用いて実行することができる。「平均移動」又は「粒子フィルタリング」はこのようなアルゴリズムの例である。これらの手法では、オブジェクトは、オブジェクトの輪郭を粗く近似する、例えば長方形の、窓の内側の色分布を表す確率分布によってモデル化される。基準分布と呼ばれる色分布が基準画像において推定される。たいていの場合、窓の追跡はオブジェクトの並進成分とスケールパラメータの変化とにだけ関わっている。シーケンスの各画像において、オブジェクトの輪郭を近似する窓の位置及びサイズは、推定された窓の内側の色分布が基準分布に最も良く一致するように推定される。
「平均移動」アルゴリズムは特許文献1に記載されている。このアルゴリズムは本発明に適しており、現在画像内の窓の内側の色分布と基準分布との間の距離が最小化されるように、基準画像に続く画像においてバウンディングボックスの位置及びサイズを決定する。このアルゴリズムによれば、画像内での窓の位置は前画像において決定された窓の最終位置で初期化される。その後、窓の内側の色分布と基準分布との間のBhattacharrya係数を最大化するために、窓は繰り返し動かされる。2つの分布は窓の内側にあるn個のピクセル{xi}i=1..nに基づいて構成された色ヒストグラムにより推定される。このヒストグラムを、各ピクセルxiにこのピクセルの色に対応する階級(又は「ビン」)のインデックスb(xi)を対応付ける関数bとして定義し、さらに、特性幅hのカーネル関数K(x)=k(‖x‖2)、例えば、
より詳細には、「平均移動」アルゴリズムは、オブジェクトの色uの分布{qu}u=1..mと前画像において推定された窓の位置y0が与えられると、以下のステップを適用する:
1.現在画像内の窓の中心位置をy0で初期化する;
2.y0を中心とした現在画像の窓の中の色分布pu(y0)を推定する;
1.現在画像内の窓の中心位置をy0で初期化する;
2.y0を中心とした現在画像の窓の中の色分布pu(y0)を推定する;
− δはクロネッカーのデルタ関数であり、
− bはxiに位置するピクセルにこのピクセルの色に対応する階級(又は「ビン」)の値を対応付ける関数である;
5.以下の式に従って窓の新しい位置y1を導出する:
− g(x)はカーネルK(x)=k(‖x‖2)に対応するプロフィールであり、
− hはカーネルK(x)の特性幅であり、
− nはバウンディングボックス内のピクセルxiの数である;
6.y1を中心とした現在画像の窓の中の新たらしい色分布pu(y1)を推定する;
9.‖y1−y0‖<εならば、現在画像内での窓の位置はy1であり、アルゴリズムは停止する。そうでなければ、アルゴリズムがステップ1で再開し、それ以降は窓の基準位置としてy0の代わりにy1が使用される。
窓のサイズは、初期サイズの小数倍(例えば、初期の窓サイズの0.9、1.0、及び1.1倍)のさまざまな窓サイズで上記アルゴリズムを収束させることにより決定される。使用される窓のサイズは、収束後のBhattacharrya係数の最大値を最も大きくするサイズである。
バウンディングボックスを追跡するために粒子フィルタリング法を使用してもよい。この方法は非特許文献2により詳細に記載されている。バウンディングボックスを追跡するアルゴリズムの不正確さを回避することを可能にする有利な解決手段は、バウンディングボックスの縁部にあるオブジェクトに属する色の存在を検出することである。この状況では、窓の縁部における色とオブジェクトの色とがオーバーラップしないという制約条件が満たされるまで窓を漸進的に拡大することにより、動き推定の欠陥を修正することが可能である。また、アルゴリズムが発散した場合にオペレータが追跡を中断して、窓を正しく再配置し、追跡を続けることができるように、シーケンスに沿ったバウンディングボックスの発展を表示することも有利である。
ステップ24は、シーケンスに沿ったバウンディングボックスの追跡と、色空間内に画定され基準画像において識別されたオブジェクト領域とに基づいて、シーケンスの各画像においてオブジェクトをセグメント化する。より詳細には、このステップは、シーケンスの各ソース画像について、ステップ21において識別されたオブジェクト領域又は背景領域の一方におけるピクセルの色のメンバシップの関数として、各ピクセルに2つのラベル「オブジェクト」又は「背景」の一方を対応付けることにより、バウンディングボックス内に二値分類マップを構成する。有利には、クロージングやオープニングのような数学的モルフォロジ事後処理(又は後処理)をこの二値マップに施すことにより、二値マップを「きれいにする」ことができる。この後処理は小さな孤立したゾーンを除去する効果を有している。
有利には、色空間内のオブジェクト領域は周期的に更新される。オブジェクトの追跡は、オブジェクトを色空間内の近傍から区別するオブジェクト領域が不変と見なされる複数のサブシーケンスに対して行われる。この更新により、シーケンスに沿って色を変化させる照明の変化と、オブジェクトに対する相対的運動により生じるオブジェクト近傍における背景の変化を回避することが可能になる。
本発明はまた、上記の方法を実施するセグメンテーション及び追跡装置にも関係している。この装置は図4において参照番号40で示されている。図4には、この装置の必須の構成要素しか示されていない。装置40は、特に、ランダムアクセスメモリ42(RAM又は類似のコンポーネント)、読出し専用メモリ43(ハードディスク又は類似のコンポーネント)、マイクロプロセッサや類似のコンポーネントのような処理ユニット44、入出力インタフェース45、及びマンマシンインタフェース46を有している。これらの構成要素はアドレス及びデータバス41により結合されている。読出し専用メモリ43には本発明による方法のステップ10及び11を実施するアルゴリズムが格納されている。電源を投入すると、処理ユニット44がこれらのアルゴリズムの命令をロードし、実行する。ランダムアクセスメモリ42には、特に、器具の電源投入時にロードされる処理ユニット44を動作させるためのプログラムと、処理される画像とが格納されている。入出力インタフェース45は入力信号(すなわち、ソース画像のシーケンス)を受信し、本発明による方法のステップ10及び11によるオブジェクトの追跡の結果を出力する機能を有している。この装置のマンマシンインタフェース46は、局所的正確度の要求と適合しない局所的正確度の低下が輪郭において生じるとすぐに、推定された輪郭をオペレータが手動で調整することができるようにする。各画像におけるセグメンテーションの結果はランダムアクセスメモリに格納され、その後の処理に備えてアーカイブされるように読出し専用メモリに転送される。マンマシンインタフェース46は特にコントロールパネルとディスプレイスクリーンを有している。色補正専用の装置の場合には、コントロールパネルは、ライトペンと「ボール」のような色成分の利得の調整を可能にするインタフェースエレメントを有する改良キーボードである。
このオブジェクトのセグメンテーション及び追跡のための装置はまた、図5において参照番号50で示されている画像シーケンスポストプロダクション装置において使用することもできる。この場合、装置40により供給された情報は、ポストプロダクションの際にビデオシーケンス−例えばフィルム−を処理手段51によって処理する際に使用される。これらの手段により、以下の処理のうちの1つを実行することが可能となる:
− 場面(例えば、顔)の中のオブジェクトのショットを変更する二次的色補正;
− 別の場面に挿入するためにある場面から特定のオブジェクトを抽出するビデオミキシング(英語では“compositing”);
− 特殊効果(例えば、前景オブジェクトを除去し、背景で置き換える);及び/又は
− 映画の修復、より詳細には、フィルム上のキズから生じる画像内の劣化したゾーンの除去。
− 場面(例えば、顔)の中のオブジェクトのショットを変更する二次的色補正;
− 別の場面に挿入するためにある場面から特定のオブジェクトを抽出するビデオミキシング(英語では“compositing”);
− 特殊効果(例えば、前景オブジェクトを除去し、背景で置き換える);及び/又は
− 映画の修復、より詳細には、フィルム上のキズから生じる画像内の劣化したゾーンの除去。
本発明はポストプロダクション用途に限定されておらず、以下のような他のさまざまな用途にも使用することができる:
− ビデオコーディング:ただ1つのフレームにおいてだけオブジェクトをコーディングし、その後は形状と位置の変化のみを伝送することにより圧縮率を改善する;
− インデクシング:画像の内容に意味的に関連する情報の抽出;
− より一般的に、画像内の各オブジェクトに適応した処理を必要とするすべての処理。
− ビデオコーディング:ただ1つのフレームにおいてだけオブジェクトをコーディングし、その後は形状と位置の変化のみを伝送することにより圧縮率を改善する;
− インデクシング:画像の内容に意味的に関連する情報の抽出;
− より一般的に、画像内の各オブジェクトに適応した処理を必要とするすべての処理。
40 オブジェクト追跡装置
41 アドレス及びデータバス
50 ポストプロダクション装置
51 処理手段
41 アドレス及びデータバス
50 ポストプロダクション装置
51 処理手段
Claims (13)
- 画像シーケンス内のオブジェクトを追跡する方法であって、各画像は複数のピクセル又は像点を含んでおり、各ピクセル又は像点には、色空間と呼ばれる決められた表現空間内の少なくとも1つの値が対応づけられており、該方法は、
− 空間領域において、基準画像と呼ばれるシーケンス内の1つの画像の中の前記オブジェクトを該オブジェクトの輪郭の推定によりセグメント化するステップ(10)と、
− 前記色空間内で前記基準画像内のセグメント化された前記オブジェクトのピクセルに対応する値に基づいて、シーケンス内の他画像における前記オブジェクトの輪郭を追跡するステップ(11)を有することを特徴とする、画像シーケンス内のオブジェクトを追跡する方法。 - 前記オブジェクトの輪郭を追跡するステップ(11)は、
− 前記基準画像内のセグメント化されたオブジェクトを表すオブジェクト領域を前記色空間内に画定するステップ(21)と、
− バウンディングボックスと呼ばれる前記オブジェクトの境界を示す窓を前記基準画像内に画定するステップ(22)と、
− シーケンス内の前記他画像における前記バウンディングボックスの位置を追跡するステップ(23)と、
− シーケンス内の前記他画像の各々における並びに前記色空間内の前記オブジェクト領域における前記バウンディングボックスの位置に基づいて、シーケンス内の前記他画像内で前記オブジェクトをセグメント化するステップ(24)を含む、請求項1記載の方法。 - シーケンス内の前記他画像内で前記オブジェクトをセグメント化するステップ(24)は、シーケンス内の1つの画像について、前記バウンディングボックス内に位置する前記画像の各ピクセルに、該ピクセルに対応する前記少なくとも1つの値が前記色空間内に画定された前記オブジェクト領域に属するか否かを示すラベルを対応付ける、請求項2記載の方法。
- 前記領域の色に基づいた領域粒子フィルタリングアルゴリズムを用いて、前記バウンディングボックスを追跡するステップ(23)を実行する、請求項1から3のいずれか1項記載の方法。
- 平均移動アルゴリズムを用いて、前記バウンディングボックスを追跡するステップ(23)を実行する、請求項1から3のいずれか1項記載の方法。
- 動的輪郭に基づいたアルゴリズムを用いて、前記基準画像内で前記オブジェクトをセグメント化するステップ(10)を実行する、請求項1から5のいずれか1項記載の方法。
- レベルセットに基づいたアルゴリズムを用いて、前記基準画像内で前記オブジェクトをセグメント化するステップ(10)を実行する、請求項1から5のいずれか1項記載の方法。
- 前記基準画像はシーケンスの第1画像である、請求項1から7のいずれか1項記載の方法。
- 前記色空間は以下の集合、
− (赤、緑、青)、
− (色相、彩度、明度)、及び
− (色相、彩度、バリュー)
の中に包含されている、請求項1から8のいずれか1項記載の方法。 - 画像シーケンス内のオブジェクトを追跡する装置(40)であって、各画像は複数のピクセル又は像点を含んでおり、各ピクセル又は像点には、色空間と呼ばれる決められた表現空間内の少なくとも1つの値が対応づけられており、該装置は、
− 空間領域において、基準画像と呼ばれるシーケンス内の1つの画像の中の前記オブジェクトを該オブジェクトの輪郭の推定によりセグメント化するための手段(41,42,43)と、
− 前記色空間内で前記基準画像内のセグメント化された前記オブジェクトのピクセルに対応する値に基づいて、シーケンス内の他画像における前記オブジェクトの輪郭を追跡するための手段(41,42,43)を有することを特徴とする、画像シーケンス内のオブジェクトを追跡する装置。 - 請求項1から9のいずれか1項記載の追跡方法を実施する、請求項10記載の装置。
- 前記シーケンスを処理するための手段(51)と請求項10記載のオブジェクト追跡のための装置(40)とを有することを特徴とする、画像シーケンスのポストプロダクションのための装置。
- 前記処理手段(51)は色補正手段である、請求項12記載の装置。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR0551184A FR2885719B1 (fr) | 2005-05-10 | 2005-05-10 | Procede et dispositif de suivi d'objets dans une sequence d'images |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006318474A true JP2006318474A (ja) | 2006-11-24 |
Family
ID=35590980
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006131814A Withdrawn JP2006318474A (ja) | 2005-05-10 | 2006-05-10 | 画像シーケンス内のオブジェクトを追跡するための方法及び装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20060262960A1 (ja) |
JP (1) | JP2006318474A (ja) |
FR (1) | FR2885719B1 (ja) |
GB (1) | GB2426137A (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010122734A (ja) * | 2008-11-17 | 2010-06-03 | Nippon Telegr & Teleph Corp <Ntt> | 対象物追跡装置、対象物追跡方法及び対象物追跡プログラム |
JP2011243229A (ja) * | 2011-09-05 | 2011-12-01 | Nippon Telegr & Teleph Corp <Ntt> | 対象物追跡装置及び対象物追跡方法 |
JP2016095842A (ja) * | 2014-11-14 | 2016-05-26 | ソニー株式会社 | ビデオコンテンツ処理方法及びシステム |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8023734B2 (en) * | 2007-10-10 | 2011-09-20 | Siemens Aktiengesellschaft | 3D general lesion segmentation in CT |
TW200919336A (en) * | 2007-10-25 | 2009-05-01 | Ind Tech Res Inst | Method for positioning a non-structural object in a series of continuing images |
JP5448344B2 (ja) * | 2008-01-08 | 2014-03-19 | 株式会社Nttドコモ | 情報処理装置およびプログラム |
JP5213486B2 (ja) * | 2008-03-14 | 2013-06-19 | 株式会社ソニー・コンピュータエンタテインメント | 対象物追跡装置および対象物追跡方法 |
US10896327B1 (en) * | 2013-03-15 | 2021-01-19 | Spatial Cam Llc | Device with a camera for locating hidden object |
JP5476103B2 (ja) * | 2009-11-27 | 2014-04-23 | 富士フイルム株式会社 | ページ記述データ処理装置、方法及びプログラム |
US8781160B2 (en) * | 2009-12-31 | 2014-07-15 | Indian Institute Of Technology Bombay | Image object tracking and segmentation using active contours |
WO2012016374A1 (en) * | 2010-08-03 | 2012-02-09 | Empire Technology Development Llc | Method for identifying objects in video |
CN103679743B (zh) * | 2012-09-06 | 2016-09-14 | 索尼公司 | 目标跟踪装置和方法,以及照相机 |
US9275284B2 (en) | 2014-04-30 | 2016-03-01 | Sony Corporation | Method and apparatus for extraction of static scene photo from sequence of images |
US20160110599A1 (en) * | 2014-10-20 | 2016-04-21 | Lexmark International Technology, SA | Document Classification with Prominent Objects |
CN105427340B (zh) * | 2015-11-09 | 2018-03-06 | 西安电子科技大学昆山创新研究院 | 基于改进箱粒子滤波的视频目标跟踪方法 |
CN108171716B (zh) * | 2017-12-25 | 2021-11-26 | 北京奇虎科技有限公司 | 基于自适应跟踪框分割的视频人物装扮方法及装置 |
WO2020194663A1 (ja) * | 2019-03-28 | 2020-10-01 | オリンパス株式会社 | トラッキング装置、学習済モデル、内視鏡システム及びトラッキング方法 |
JP7105370B2 (ja) | 2019-03-28 | 2022-07-22 | オリンパス株式会社 | トラッキング装置、学習済モデル、内視鏡システム及びトラッキング方法 |
CN110414535B (zh) * | 2019-07-02 | 2023-04-28 | 绵阳慧视光电技术有限责任公司 | 一种基于背景区分的手工初始框修正方法及*** |
US11763565B2 (en) * | 2019-11-08 | 2023-09-19 | Intel Corporation | Fine-grain object segmentation in video with deep features and multi-level graphical models |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6205231B1 (en) * | 1995-05-10 | 2001-03-20 | Identive Corporation | Object identification in a moving video image |
US5912980A (en) * | 1995-07-13 | 1999-06-15 | Hunke; H. Martin | Target acquisition and tracking |
US6259802B1 (en) * | 1997-06-30 | 2001-07-10 | Siemens Corporate Research, Inc. | Object tracking technique using polyline contours |
US6118887A (en) * | 1997-10-10 | 2000-09-12 | At&T Corp. | Robust multi-modal method for recognizing objects |
US6724915B1 (en) * | 1998-03-13 | 2004-04-20 | Siemens Corporate Research, Inc. | Method for tracking a video object in a time-ordered sequence of image frames |
US6394557B2 (en) * | 1998-05-15 | 2002-05-28 | Intel Corporation | Method and apparatus for tracking an object using a continuously adapting mean shift |
KR100301113B1 (ko) * | 1998-08-05 | 2001-09-06 | 오길록 | 윤곽선 추적에 의한 동영상 객체 분할 방법 |
US20010008561A1 (en) * | 1999-08-10 | 2001-07-19 | Paul George V. | Real-time object tracking system |
WO2000018128A1 (en) * | 1998-09-24 | 2000-03-30 | The Trustees Of Columbia University In The City Of New York | System and method for semantic video object segmentation |
US6952224B2 (en) * | 2001-03-30 | 2005-10-04 | Intel Corporation | Object trackability via parametric camera tuning |
KR100459893B1 (ko) * | 2002-01-08 | 2004-12-04 | 삼성전자주식회사 | 동영상에서 칼라 기반의 객체를 추적하는 방법 및 그 장치 |
FR2845186B1 (fr) * | 2002-09-27 | 2004-11-05 | Thomson Licensing Sa | Procede et dispositif de mesure de similarite entre images |
-
2005
- 2005-05-10 FR FR0551184A patent/FR2885719B1/fr not_active Expired - Fee Related
-
2006
- 2006-04-27 GB GB0608390A patent/GB2426137A/en not_active Withdrawn
- 2006-05-02 US US11/416,025 patent/US20060262960A1/en not_active Abandoned
- 2006-05-10 JP JP2006131814A patent/JP2006318474A/ja not_active Withdrawn
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010122734A (ja) * | 2008-11-17 | 2010-06-03 | Nippon Telegr & Teleph Corp <Ntt> | 対象物追跡装置、対象物追跡方法及び対象物追跡プログラム |
JP2011243229A (ja) * | 2011-09-05 | 2011-12-01 | Nippon Telegr & Teleph Corp <Ntt> | 対象物追跡装置及び対象物追跡方法 |
JP2016095842A (ja) * | 2014-11-14 | 2016-05-26 | ソニー株式会社 | ビデオコンテンツ処理方法及びシステム |
US10133927B2 (en) | 2014-11-14 | 2018-11-20 | Sony Corporation | Method and system for processing video content |
Also Published As
Publication number | Publication date |
---|---|
GB0608390D0 (en) | 2006-06-07 |
GB2426137A (en) | 2006-11-15 |
FR2885719A1 (fr) | 2006-11-17 |
US20060262960A1 (en) | 2006-11-23 |
FR2885719B1 (fr) | 2007-12-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2006318474A (ja) | 画像シーケンス内のオブジェクトを追跡するための方法及び装置 | |
US8611728B2 (en) | Video matting based on foreground-background constraint propagation | |
JP4954206B2 (ja) | ビデオオブジェクトのカットアンドペースト | |
US7379583B2 (en) | Color segmentation-based stereo 3D reconstruction system and process employing overlapping images of a scene captured from viewpoints forming either a line or a grid | |
US9042662B2 (en) | Method and system for segmenting an image | |
EP1679652B1 (en) | Image segmentation method and device | |
JP6553692B2 (ja) | 動画像背景除去方法及び動画像背景除去システム | |
CN109035253A (zh) | 一种语义分割信息指导的深度学习自动图像抠图方法 | |
US20090010546A1 (en) | Edge-Guided Morphological Closing in Segmentation of Video Sequences | |
CN112184759A (zh) | 一种基于视频的运动目标检测与跟踪方法及*** | |
EP3340075B1 (en) | Video abstract using signed foreground extraction and fusion | |
TWI390465B (zh) | 用於背景去除之影像處理方法 | |
Vosters et al. | Background subtraction under sudden illumination changes | |
US10249046B2 (en) | Method and apparatus for object tracking and segmentation via background tracking | |
CN108961304B (zh) | 识别视频中运动前景的方法和确定视频中目标位置的方法 | |
US20230334235A1 (en) | Detecting occlusion of digital ink | |
CN111797766B (zh) | 识别方法、识别装置、计算机可读存储介质和车辆 | |
CN111310768B (zh) | 基于鲁棒性背景先验和全局信息的显著性目标检测方法 | |
US7024040B1 (en) | Image processing apparatus and method, and storage medium | |
CN112614149A (zh) | 基于实例分割的语义合成方法 | |
JP2003016444A (ja) | パターン認識装置とそのパターン認識方法、及びパターン認識プログラム | |
JP2001209808A (ja) | 物体抽出システムと方法並びに物体抽出用プログラムを記憶した記憶媒体 | |
CN110599517A (zh) | 一种基于局部特征和全局hsv特征组合的目标特征描述方法 | |
Jadav et al. | Dynamic Shadow Detection and Removal for Vehicle Tracking System | |
CN114359111A (zh) | 一种针对卫星时间序列影像的面向对象的填补方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090511 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20090708 |