JP2007523429A - ロバストな情報融合を利用するオブジェクトのマルチモーダルコンポーネントベースドトラッキングのための方法及びシステム - Google Patents

ロバストな情報融合を利用するオブジェクトのマルチモーダルコンポーネントベースドトラッキングのための方法及びシステム Download PDF

Info

Publication number
JP2007523429A
JP2007523429A JP2006554240A JP2006554240A JP2007523429A JP 2007523429 A JP2007523429 A JP 2007523429A JP 2006554240 A JP2006554240 A JP 2006554240A JP 2006554240 A JP2006554240 A JP 2006554240A JP 2007523429 A JP2007523429 A JP 2007523429A
Authority
JP
Japan
Prior art keywords
tracking
component
model
sample
residual error
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006554240A
Other languages
English (en)
Inventor
ゲオルゲシュ ボグダン
シーン ツォウ シャン
コマニチ ドリン
バーラット ラオ アール
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens Corporate Research Inc
Original Assignee
Siemens Corporate Research Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Corporate Research Inc filed Critical Siemens Corporate Research Inc
Publication of JP2007523429A publication Critical patent/JP2007523429A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/245Aligning, centring, orientation detection or correction of the image by locating a pattern; Special marks for positioning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/754Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries involving a deformation of the sample pattern or of the reference pattern; Elastic matching

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Image Analysis (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

オブジェクトをトラッキングするための方法及びシステムが開示される。複数の画像フレームを含むビデオシーケンスが受信される。オブジェクト外観分布のサンプルベースの表示が維持される。オブジェクトが1つ以上のコンポーネントに分割される。各コンポーネントに対してサンプルベースの表示に関してその位置及び不確定性が推定される。最も主要な動きを決定するために各コンポーネントに対して可変バンド幅密度ベースの融合(Variable Bandwidth Density Based Fusion VBDF)が適用される。動き推定値がオブジェクトのトラックを決定するために使用される。

Description

関連出願のクロスリファレンス
本出願は2004年2月20日に提出された米国仮出願シリアル番号60/546232の利益を主張し、この米国仮出願は完全に参考文献として組み込まれている。
発明の分野
本発明はオブジェクトの動きをトラッキングするためのシステム及び方法に関し、より特定すれば、ロバストな情報融合(robust information fusion)を利用するオブジェクトのマルチモーダルコンポーネントベースドトラッキング(multi-modal component-based tracking)のためのシステム及び方法に関する。
発明の背景
視覚的にオブジェクトをトラッキングする場合に遭遇する1つの問題はターゲット移動及び/又はカメラ移動による固有の変化を処理するために十分にロバストでなければならないターゲットの外観の表示を維持する能力である。テンプレートマッチングに基づく方法は成功裡にターゲットをトラッキングするためにモデルテンプレートを適合する必要がある。適合なしでは、トラッキングは外観が著しく変化しない場合に短期間にわたってしか信頼できない。
しかし、多くの適用事例では、長い期間の間にターゲットの外観は視点、照明又は遮蔽(occlusion)の変化のために構造における重大な変化を被る。モデルが以前のフレームに適合されるモーショントラッキングに基づく方法はこのような外観変化を扱うことができる。しかし、累積した動き誤差及び急速な視覚的変化によってモデルはトラッキングされるターゲットから離れていってしまう。トラッキングパフォーマンスはオブジェクト固有のサブスベース制約を課すること又はモデルの統計的表示を維持することによって改善されうる。この表示はア・プリオリに決定されるか又はオンラインで計算されうる。外観変動性は理想的にはオンラインで学習される確率分布関数としてモデル化されうる。
ビジョンベースのトラッキングの内在的特性はトラッキングターゲット及び背景の外観がたとえ徐々にではあっても絶えず変化することである。ロバストなトラッキングのための一般的な不変的なフィーチャ(feature)は見つけ難いので、現在の方法の大部分はトラッキングターゲット及び/又は背景の外観変動を取り扱う必要がある。あらゆるトラッキングスキームは、たとえこれが明示的に言及されなくても、オブジェクトの2次元(2D)画像外観の一定の表示を含む。
1つの公知の方法は3つのコンポーネント、すなわち安定したコンポーネント、移動するコンポーネント及び遮蔽コンポーネントを含む生成モデルを使用する。安定したコンポーネントは動き推定のための最も信頼できる構造物を識別し、移動するコンポーネントは外観の変動を表示する。両方ともガウス分布として示される。データ異常値の原因となる遮蔽コンポーネントは可能な強度レベル上に均等に分布される。この方法はフィーチャとして操作可能なウェーブレット係数の位相部分を使用する。
オブジェクトトラッキングは監視適用事例又は製造ライン適用事例のような多くの適用事例を有する。オブジェクトトラッキングは心臓の心筋壁運動を分析するための医療適用事例においても使用される。左心室の心筋壁運動の正確な分析は心臓機能の評価にとって極めて重要である。このタスクは心筋の速い運動及び呼吸干渉のために困難である。超音波画像シーケンスが利用される場合でさえも比較的不利である。
いくつかの方法が心筋壁トラッキングのために提案されている。モデルベースの変形可能なテンプレート、マルコフ確率場、オプティカルフロー方法及びこれらの方法の結合が2次元画像シーケンスから左心室をトラッキングするために適用されている。形状トラッキングフレームワークにモデル制約を課することは慣例である。多くのケースでは、サブスペースモデルが形状トラッキングには適している。というのも、主な形状変動を捕捉するモードの個数は制限され通常は形状を記述するために使用されるフィーチャコンポーネントの元々の個数よりもはるかに少ないからである。簡単な処理はトラッキングされた形状を主成分分析(PCA)サブスペースの中に射影することである。しかし、このアプローチは測定不確定性を利用することができず、それゆえ完全ではない。多くの事例では、測定ノイズは本質的に異分散である(つまり異方性及び不均一性の両方である)。オブジェクトトラッキング方法のためには多重外観モデルからの動き推定値を融合する必要があり、これは効果的に不確定性を考慮に入れることができる。
発明の要旨
本発明はオブジェクトをトラッキングするためのシステム及び方法を開示する。複数の画像フレームを含むビデオシーケンスが受信される。オブジェクト外観分布のサンプルベースの表示が維持される。オブジェクトが1つ以上のコンポーネントに分割される。各コンポーネントに対して、サンプルベースの表示に関してその位置及び不確定性が推定される。最も主要な動きを決定するために各コンポーネントに対して可変バンド幅密度ベースの融合(Variable Bandwidth Density Based Fusion VBDF)が適用される。動き推定値がオブジェクトのトラックを決定するために使用される。
本発明はさらに複数の画像フレームを含む医療ビデオシーケンスにおける候補オブジェクトをトラッキングするための方法に関する。オブジェクトは複数のラベリングされたコントロールポイントによって表示される。各コントロールポイントに対する位置及び不確定性が推定される。多重外観モデルが維持される。各コントロールポイントは1つ以上のモデルと比較される。VBDF推定器が各コントロールポイントのもっともありそうな現在の位置を決定するために使用される。座標が全てのコントロールポイントにおいて連結される。コントロールポイントのセットが最もこのコントロールポイントのセットに類似しているモデルと融合される。
図面の短い記述
本発明の有利な実施例が次に詳しく記述され、同一の参照符号は同一の要素を指示しており、次のような添付図面を参照する。
図1は本発明によるオブジェクトの動きをトラッキングするためのシステムのシステムブロック線図である。
図2は本発明によるマルチモデルコンポーネントベースドトラッカ(multi-model component based tracker)を使用するオブジェクトをトラッキングするための方法を示す。
図3は本発明によるオブジェクトのトラッキングのための方法を示すフローチャートである。
図4は本発明により人間の顔がトラッキングされる画像フレームのシーケンスを示す。
図5は図4の顔トラッキング画像に対するメディアン残留誤差を示す線図を示す。
図6は本発明により人体がトラッキングされる画像フレームのシーケンスを示す。
図7は図6の人体トラッキング画像に対するメディアン残留誤差を示す線図を示す。
図8は本発明による測定及びフィルタリング処理を使用するロバストなトラッカのブロック線図を示す。
図9は単一モデルトラッキング方法を使用した結果と多重モデルトラッキング方法を使用した結果を表す多数の画像フレームを示す。
図10は本発明の融合アプローチと直交射影アプローチとの比較を示す一連の画像フレームである。
図11は本発明による融合方法を使用することから得られる画像シーケンスの2つのセットを例示する一連の画像を示す。
図12は本発明によるトラッキングされたポイントとグラウンドトルース(ground truth)との間の平均距離を示す線図である。
詳細な記述
本発明はオブジェクトの動きをトラッキングするためのシステム及び方法に関する。図1は本発明によるロバストな情報融合を使用してオブジェクトのマルチモデルコンポーネントベースドトラッキング(multi-model component based tracking)のためのシステムの例示的なハイレベルブロック線図を示す。このようなシステムは例えば人物又は顔面フィーチャの運動をトラッキングするためのような監視適用事例に使用される。本発明は組み立てラインにおけるオブジェクトをトラッキングするためにも使用されうる。他の適用事例は医療適用事例のための人の器官のトラッキングのために発生されうる。本発明が他の環境でも十分に使用されうることは当業者には理解されるだろう。
本発明は1つ以上のカメラ102、104を使用して画像フレームのビデオシーケンスを得る。各カメラは異なるパースペクティブから画像を得るために異なる位置に位置決めされ、ターゲットエリアのカバー範囲を最大化する。ターゲットオブジェクトが識別され、その属性がプロセッサ106に関係付けられたデータベース110に格納される。例えば、もしターゲット(例えば人物)がダイレクトにカメラ102に直面しているならば、この人物は正面ビューで現れるだろう。しかし、カメラ104により捕捉される同一人物の画像はプロフィールビューとして現れるだろう。このデータは更なる操作が行われる必要があるかどうかを決定するためにさらに分析される。データベース110はオブジェクトの動きのトラッキングを助けるためにターゲットに関連付けられたコンポーネントの例を含みうる。ブースティング(boosting)のような学習技術がプロセッサ106によって使用され、ネガティブな例からポジティブな例を区別することができる分類子を形成する。
本発明の1つの実施形態によれば、外観変動性は時間に亘っていくつかのモデルを維持することによってモデル化される。外観モデリングは時間に亘ってピクセルの強度を監視することによって行われる。時間に亘ってオブジェクトの外観(例えばその強度)が変化する。強度におけるこれらの変化は、心内膜壁に関連付けられたコントロールポイントのようなコントロールポイントをトラッキングするために使用される。これはオブジェクト外観を特徴付ける確率密度関数のノンパラメトリック表示を提供する。
ターゲットオブジェクトを幾つかの領域に分割するコンポーネントベースのアプローチが使用され、これらのいくつかの領域は別個に処理される。トラッキングは動き推定値及びその不確定性を各モデルから独立にオプティカルフローによって得ることによって実施される。可変バンド幅密度ベースの融合(VBDF)として公知のロバストな融合技術は各コンポーネントに対して最終推定値を計算するために使用される。VBDFは、変位密度関数(displacements density function)の最も重要なモードをそれらの不確定性を考慮に入れながら計算する。
VBDF方法は多重データソース及び動き推定値における異常値を管理する。このフレームワーク内では、遮蔽は大きな残留誤差に対する推定値不確定性によって当然処理される。アライメント誤差は推定値の共分散行列のスケールを計算するために使用され、それゆえ信頼できない変位の影響を低減する。
図2は本発明によるマルチモデルコンポーネントベースドトラッカを使用するオブジェクトをトラッキングするための方法を示す。トラッキングの間の変化をモデル化するためにオブジェクト外観の幾つかの見本(exemplar)が時間に亘って維持される。外観分布のノンパラメトリック表示に等価である各画像の各ピクセルの強度が維持される。
図2の上の列はモデルセットにおける現在の見本208、210、212を示し、各々はオーバーラップするコンポーネントのセットを関連付けている。コンポーネントベースのアプローチはグローバル表示よりもロバストであり、照明変化及びポーズに対する感応性がより低い。もう一つの利点は、部分的遮蔽はマッチング尤度を分析することによってコンポーネントレベルにおいて処理されうることである。
各コンポーネントは独立に処理される;その位置及び共分散行列は全てのモデルテンプレートに関して現在の画像内で推定される。例えば、画像フレーム202においてグレーの矩形によって示されているようなコンポーネントのうちの一つ220及び各モデルに関するその位置及び不確定性がInewに示されている。VBDFロバスト融合プロシージャが適用されて、矩形204に示されているような関連付けられた不確定性を有する最も主要な動き(つまりモード)を決定する。遮蔽又は外観変化のために各コンポーネントの推定された位置における分散に注意すべきである。現在のフレーム206におけるコンポーネントの位置はさらにグローバルパラメトリックモーションモデル(global parametric motion model)によって制約されている。相似変換モデル(similarity transformation model)及びそのパラメータは各コンポーネント位置に対する信頼度スコアを使用して推定される。それゆえ、信頼できるコンポーネントが大いにグローバルな動き推定に貢献する。
現在のフレーム206は、もし基準外観に対する残留誤差が比較的低いならばモデルセット208、210、212に加えられる。閾値は大きな遮蔽を有する画像が加えられないように選択される。モデル内のテンプレートの数は固定されており、それゆえ、最も古いものが捨てられる。しかし、他のスキームがどの画像をモデルセット内に維持するかを決定するために使用されうることも当業者には理解できるだろう。
VBDF推定器は適応カーネルバンド幅を有するノンパラメトリック密度推定に基づいている。VBDF推定器は、その不確定性を探究する一方で初期データ分布のノンパラメトリック推定のゆえに入力データの異常値が存在する場合に良好に作動する。VBDF推定器は密度関数の最も重要なモードの位置として定義される。モード計算はマルチスケール最適化フレームワークにおける可変バンド幅平均シフト技術を使用することに基づいている。
i∈Rd,i=1...nが利用可能なd次元推定値であり、各々が共分散行列Ciにより与えられる関連付けられた不確定性を有するとする。密度関数の最も重要なモードはマルチスケール方式で反復的に決定される。バンド幅行列Hi=Ci+α2Iは各ポイントxiに関連付けられており、ただしここでIは単位行列であり、パラメータαは分析のスケールを決定する。位置xにおけるサンプルポイント密度推定器は
Figure 2007523429
により定義され、ただしここでDはxとxiとの間のマハラノビス距離を表し、
Figure 2007523429
である。
位置xにおける可変バンド幅平均シフトベクトルは
Figure 2007523429
によって与えられ、ただしここで
Figure 2007523429
はデータ依存ウェイトwi(x)により重み付けされるバンド幅行列の調和平均を表し
Figure 2007523429
であり、現在の位置xで計算されるデータ依存ウェイトは表現
Figure 2007523429
を有し、これは
Figure 2007523429
を満たすことに注意してほしい。
ポイントx+m(x)に相応する密度は常にxに相応する密度より高いか又は等しい。それゆえ、平均シフトベクトルを使用して現在の位置を反復的にアップデートすることは、基礎的な密度の定常的なポイントに収束する山登りプロシージャ(hill-climbing procedure)をもたらす。
VBDF推定器は複数のスケールにおける適応平均シフトプロシージャを反復的に適用することによって最重要モードを見つけ出す。それはポイントxiの広がりに関してパラメータαを大きく選択することによって大きなスケールからスタートする。この場合、密度面は単峰形(unimodal)であり、それゆえ決定されたモードはグローバルに最も密度の高い領域に相応する。このプロシージャは、パラメータαの値を低下させ以前のスケールで決定されたモードから平均シフト反復をスタートしがなら繰り返される。最終ステップにおいて、各ポイントに関連付けられたバンド幅行列は共分散行列に等しい、すなわちHi=Ciである。
VBDF推定器は多重ソースモデルを処理する能力を有する情報融合のためのパワフルなツールである。これは、ローカルな近傍内のポイントが多重モーションを示しうるので、動き推定のために重要である。最も重要なモードは最も妥当なモーションに相応する。
本発明によれば、多重コンポーネントモデルは同時にトラッキングされる。多重コンポーネントモデルがいかにしてトラッキングされるかの一例をここで記述する。n個のモデルM0,M1,...,Mnが存在すると仮定する。各画像毎に、c個のコンポーネントがxi,,j,i=1...c,j=1...nにより表示されるそれらの位置とともに維持される。新しい画像が利用可能である場合、各コンポーネント及び各モデルに対する位置及び不確定性が推定される。このステップは画像相関、空間グラジエント又は時空間エネルギの正則化に基づく技術のようないくつかの技術を使用して行われる。本発明によれば、参考文献として組み込まれているD.Comaniciu, "Nonparametric information fusion for motion estimation", CVPR 2003,Vol.1, pp.59-66に記述されているロバストなオプティカルフロー技術が使用される。
結果は各コンポーネントに対する動き推定値xi,,j及びその不確定性Ci,jである。こうして、xi,,jはモデルiに関するコンポーネントjの位置推定値を表す。共分散行列のスケールもマッチング残留誤差から推定される。これは、個別コンポーネントが遮蔽される(occluded)場合には共分散行列のサイズを増大させる。それゆえ、遮蔽はコンポーネントレベルで取り扱われる。
VBDFロバスト融合技術は現在のフレーム内のコンポーネントjに対する最も妥当な位置xjを決定するために適用される。スケールに亘るモードトラッキングは結果的に
Figure 2007523429
を生じ、ただしここでウェイトωiは(5)で定義されたものである。
各コンポーネントの位置計算に続いて、重み付けされた矩形フィッティングが推定値の共分散行列により与えられるウェイトによって実行される。画像パッチは4個のパラメータにより定義される相似変換Tによって関係付けられると仮定する。動的コンポーネント位置xの相似変換は次式により特徴付けられる。
Figure 2007523429
ここでtx,tyは並進パラメータであり、a,bは2D回転及びスケーリングをパラメタライズする。
最小化される規準(criterion)は、基準位置
Figure 2007523429
と推定された位置xj(現在のフレーム内のj番目のコンポーネント位置)との間のマハラノビス距離の和である。
Figure 2007523429
最小化は標準重み付け最小二乗法(standard weighted least squares)によって行われる。各コンポーネントに対する共分散行列が使用されるので、高い不確定性を有するポイントの影響は低減される。
矩形がトラッキングされたコンポーネントにフィットされた後で、動的コンポーネント候補が矩形内で一様に再サンプリングされる。矩形に関する各コンポーネントの相対的位置は大きく変化しないと仮定する。もし再サンプリングされた位置とある一定のコンポーネントのオプティカルフローにより計算されたトラック位置との距離が許容可能な閾値より大きいならば、トラック位置は異常値と見なされ、再サンプリングされたポイントと置換される。もし十分なコンポーネントが低い残留誤差を有するならば、現在の画像がモデルセットに加えられる。モデルと現在のフレームとの間のメディアン残留誤差(median residual error)は予め定められた閾値Thと比較される。
図3を参照しつつオブジェクトトラッキングのための方法のまとめをここで記述しよう。上記のように、コンポーネントiに対するモデルM0,M1,...,Mnのセットが新しい画像Ifに対して得られる(ステップ302)。コンポーネントiは画像フレームjの中の位置xi,,jにある。新しい画像Ifに対して、コンポーネントiの位置がオプティカルフロー技術を使用して画像フレームj内の位置
Figure 2007523429
において計算される。計算は以前のフレームにおいて推定されたコンポーネントiの位置である
Figure 2007523429
からスタートする(ステップ304)。画像フレームのシーケンス(j=1...n)に対して、コンポーネントiの位置
Figure 2007523429
がVBDF推定器を使用して推定される(ステップ306)。コンポーネント位置は式(8)を最小化することによって計算される変換を使用して制約される(ステップ308)。新しい外観が、もしそのメディアン残留誤差が予め定められた閾値Thより小さいならば、モデルセットに加えられる(ステップ310)。
本発明のマルチテンプレートフレームワークは形状トラッキングのコンテクストにおいて直接適用されうる。もしトラッキングされたポイントがスプラインによりモデル化される形状のコントロールポイントを表すならば、多重位置推定値のロバスト融合の利用は形状の位置推定値の信頼性を増大させる。形状スペースが学習されたサブスペース制約により制限される場合、それは比較的小さい補正を結果的に生ずる。もし輪郭が利用可能であるならば、トラッキングのために利用されるモデルテンプレートが形状間の距離に基づくモデルセットからオンラインでセレクトされる。
図4を参照して本発明の方法の適用事例をここで記述する。図4は重大なクラッタ(clutter)及び遮蔽が存在した複数の画像フレームに亘る顔トラッキング結果を示す。この例では、20個のモデルテンプレートが使用された。コンポーネントは少なくとも5ピクセル距離であり、それらの数cは四角い枠により定められている。モデルセットに加えられるべき新しい画像に対する閾値Thは強度範囲の8分の1であった。値は遮蔽が検出されるようにデータから学習された。
図4の画像フレームから分かるように、幾つかの顔の存在による重大なクラッタが存在する。さらに、トラッキングされる領域をさえぎる多重遮蔽(例えば紙)が存在する。図5はモデルアップデートのために使用される時間に亘るメディアン残留誤差を表す線図である。線図内のピークはターゲットが完全に遮蔽される画像フレームに相応する。モデルアップデートは、残留誤差が水平方向ラインによって示されている閾値Th=32を通過すると行われる。
図6は本発明による人体をトラッキングするために使用される複数の画像フレームを示す。本発明は人間の腕の動きのような外観変化を処理することができ、さらに木によって遮蔽された後でトラッキングターゲット(すなわち人体)をリカバーすることができる。図7は時間に亘るメディアン残留誤差を示す線図である。ピーク702は人体が木によって遮蔽される時に相応し、他方でピーク704は人体が回転しその画像サイズが固定されたコンポーネントサイズよりも小さくなる時を表す。
本発明の方法は画像フレームのシーケンス内の心内膜壁の動きのトラッキングのような医療適用事例にも使用されうる。図8はどのように心内膜壁がトラッキングされるのかを示している。本発明の方法は2つの局面においてロバストである。すなわち、測定プロセスにおいてVBDF融合が多重外観モデルからのマッチング結果を結合するために使用され、フィルタリングプロセスにおいて融合がノイズの異分散性を利用しながら測定、前の知識及びモデルからの情報を結合するために形状スペースにおいて実施される。
トラッキングの間の変化をモデル化するために、外観分布のノンパラメトリック表示と等価であるオブジェクト外観のいくつかの見本が時間に亘って維持される。図8は外観モデル、つまりモデルセットの中の現在の見本を示し、各々はオーバーラップするコンポーネントのセットを関連付けている。心内膜壁の形状のような形状はコントロール又はランドマークポイント(つまりコンポーネント)によって表示される。これらのポイントはユーザに示される前にスプラインによってフィットされる。コンポーネントベースのアプローチはグローバルな表示よりもロバストであり、構造的な変化に対して比較的感応性が低く、従ってノンリジッドな形状変形を取り扱うことができる。
各コンポーネントは独立に処理され、その位置及び共分散行列は全てのモデルテンプレートに関して現在の画像において推定される。例えば、コンポーネントのうちの一つが矩形810によって示されており、各モデルに関するその位置及び不確定性はループ812及び814のような動き推定ステージに示されている。VBDFロバスト融合プロシージャは、関連付けられた不確定性を有する最も主要な動き(モード)を決定するために適用される。
現在のフレーム内のコンポーネントの位置はさらに事前トレーニングされた形状モデルを使用してサブスペース形状制約を課することによって適応される。ロバストな形状トラッキングは、システムダイナミクス、異分散測定ノイズ及びサブスペース形状モデルから不確定性を最適に解決することによって達成される。各コンポーネント位置における推定された信頼度を使用することによって、信頼できるコンポーネントがグローバルな形状動き推定に大いに貢献する。現在のフレームは、もし基準外観に対する残留誤差が比較的低ければモデルセットに加えられる。
図9は多重外観モデルを使用することの利点を示す。関連付けられた輪郭を有する初期フレームは図9aに示されている。単一モデルを使用することで不正確なトラッキング結果がもたらされる(図9b)。多重モデルアプローチは正確に外観変化を処理する(図9c)。
フィルタリングプロセスは画像内の全てのコントロールポイントの座標を連結することによって形成されるベクトルに基づいている。典型的なトラッキングフレームワークはダイナミックプロセスにより定義される予測及びノイズの多い測定からの情報を融合する。形状トラッキングにおいて、適当な範囲内に形状全体を安定化するために付加的なグローバルな制約が必要である。
心内膜トラッキングのためには、一般的な心臓の代わりに現在の心臓の統計的形状モデルが必要とされる。PCAモデル及び初期化された輪郭が共同して現在のケースの変動を表すと仮定することによって強く適応された主コントロール分析(strongly-adapted Principal Control Analysis SA−PCA)が適用される。SA−PCAによって、フレームワークは4個の情報ソースを取り入れる。すなわち、システムダイナミック、測定、サブスペースモデル及び初期輪郭である。
一例が図10に本発明の融合方法と直交射影方法(orthogonal projection method)との比較のために示されている。融合方法は誤差を完全には補正しないが、補正ステップは累積するので、長いシーケンス内の後の方の画像フレームでの全体的な効果は非常に有意義になりうる。
次に非常にノイズの多い心エコー法データを使用する心臓輪郭をトラッキングするために使用される本発明の例を記述する。この例で使用されるデータは、18フレームから90フレームまでの長さにおいて変化するシーケンスを有する正常ならびに心筋症の様々なタイプを表す。トレーニング及び検査のための心尖部二又は四腔像(17個のコントロールポイントを有する開いた輪郭)及び胸骨左縁短軸像(18個のコントロールポイントを有する閉じた輪郭)の両方が利用された。PCAが実施され、34及び36の元々の次元の数がそれぞれ7及び8にまで低減された。外観モデルのために、20個のテンプレートが外観変動性を捕捉するために維持される。システマティックな評価のために、検査のためのトレーニングデータを除く18個の胸骨左縁短軸像及び14個の心尖部二又は四腔像を有する32個の心エコー図シーケンスのセットが使用され、これら全ては専門家による注釈付きグラウンドトルース輪郭を有する。
図11は2つのトラッキングされたシーケンスからのスナップショットを示す。心内膜は常に最も強いエッジ上にあるわけではないことが見て取れる。時々それはぼんやりしたラインによってのみ現れ、時々それは完全に見えなくなり又は大きなノイズの中に埋もれてしまい、時々それはエッジが存在しない乳頭筋の根と交差する。異なる方法のパフォーマンスを比べるために、距離の二乗の和の平均(Mean Sum of Squared Distance MSSD)及び平均絶対距離(Mean Absolute Distance MAD)が使用される。本発明の方法は(フロー(Flow)と呼ばれる)形状制約なしのトラッキングアルゴリズム及び(フローシェイプスペース(FlowShapeSpace)と呼ばれる)直交PCA形状スペース制約を有するトラッキングアルゴリズムと比較される。図12は2つの距離尺度を使用する比較を示す。本発明は他の2つの方法より大いにパフォーマンスが優れており、より低い平均距離及びこのような距離に対するより低い標準偏差を有する。
ロバストな情報融合を使用するオブジェクトをトラッキングするための方法の実施形態を記述してきたが、修正及び変更が上記の教示に基づいて当業者により行われうることに注意してもらいたい。それゆえ、添付された請求項により定められるような本発明の範囲及び精神から離れずに開示された本発明の特定の実施形態において変更が加えられうることを理解すべきである。従って、特許法により要求される詳細及び特徴を有する発明を記述してきたが、請求されかつ特許証により望むらくは保護されるものは添付された請求項において発表される。
本発明によるオブジェクトの動きをトラッキングするためのシステムのシステムブロック線図である。 本発明によるマルチモデルコンポーネントベースドトラッカ(multi-model component based tracker)を使用するオブジェクトをトラッキングするための方法を示す。 本発明によるオブジェクトのトラッキングのための方法を示すフローチャートである。 本発明により人間の顔がトラッキングされる画像フレームのシーケンスを示す。 図4の顔トラッキング画像に対するメディアン残留誤差を示す線図を示す。 本発明により人体がトラッキングされる画像フレームのシーケンスを示す。 図6の人体トラッキング画像に対するメディアン残留誤差を示す線図を示す。 本発明による測定及びフィルタリング処理を使用するロバストなトラッカのブロック線図を示す。 単一モデルトラッキング方法を使用した結果と多重モデルトラッキング方法を使用した結果を表す多数の画像フレームを示す。 本発明の融合アプローチと直交射影アプローチとの比較を示す一連の画像フレームである。 本発明による融合方法を使用することから得られる画像シーケンスの2つのセットを例示する一連の画像を示す。 本発明によるトラッキングされたポイントとグラウンドトルース(ground truth)との間の平均距離を示す線図である。
符号の説明
102 カメラ
104 カメラ
106 プロセッサ
108 出力
110 データベース
202 画像フレーム
204 矩形
206 現在のフレーム
208 現在の見本、モデルセット
210 現在の見本、モデルセット
212 現在の見本、モデルセット
220 コンポーネント
702 ピーク
704 ピーク
810 矩形
812 ループ
814 ループ

Claims (27)

  1. オブジェクトをトラッキングするための方法において、該方法は次のステップを含む、すなわち、
    複数の画像フレームから成るビデオシーケンスを受信するステップ、
    オブジェクト外観分布のサンプルベースの表示を維持するステップ、
    オブジェクトを1つ以上のコンポーネントに分割するステップ、
    各コンポーネントに対して、サンプルベースの表示に関してその位置及び不確定性を推定するステップ、
    最も主要な動きを決定するために各コンポーネントに対して可変バンド幅密度ベースの融合(Variable Bandwidth Density Based Fusion VBDF)を適用するステップ、
    動き推定値を使用してオブジェクトのトラックを決定するステップを含む、オブジェクトをトラッキングするための方法。
  2. オブジェクトのトラッキングはオブジェクトを含む各後続画像フレームにおいて実施される、請求項1記載の方法。
  3. コンポーネントの相対的位置はグローバルパラメトリックモーション(global parametric motion)を使用して制約される、請求項1記載の方法。
  4. コンポーネント位置に関する残留誤差はモデルテンプレートに関連して測定される、請求項1記載の方法。
  5. もし残留誤差が予め定められた閾値より下であるならば、現在のフレームがモデルテンプレートに加えられる、請求項4記載の方法。
  6. 高い残留誤差は、オブジェクトが少なくとも部分的に遮蔽されている(occluded)ことを指示する、請求項5記載の方法。
  7. 高い残留誤差は、オブジェクトが照明条件における変化により影響を受けていることを指示する、請求項5記載の方法。
  8. トラッキングされているオブジェクトは顔である、請求項1記載の方法。
  9. トラッキングされているオブジェクトは人体である、請求項1記載の方法。
  10. オブジェクト外観分布のサンプルベースの表示は画像フレームからオフラインで得られるモデルテンプレートを含む、請求項1記載の方法。
  11. オブジェクト外観分布のサンプルベースの表示は画像フレームからオンラインで得られるモデルテンプレートを含む、請求項1記載の方法。
  12. コンポーネントの相対的位置は形状モデルを使用して制約される、請求項1記載の方法。
  13. 複数の画像フレームを含む医療ビデオシーケンスにおける候補オブジェクトをトラッキングするための方法において、オブジェクトは複数のラベリングされたコントロールポイントによって表示され、前記方法は次のステップを含む、すなわち、
    各コントロールポイント毎に位置及び不確定性を推定するステップ、
    多重外観モデルを維持するステップ、
    各コントロールポイントを1つ以上のモデルと比較するステップ、
    VBDF推定器を使用して各コントロールポイントのもっともありそうな現在の位置を決定するステップ、
    全てのコントロールポイントの座標を連結するステップ、
    コントロールポイントのセットを最もこのコントロールポイントのセットに類似しているモデルと融合するステップを含む、複数の画像フレームを含む医療ビデオシーケンスにおける候補オブジェクトをトラッキングするための方法。
  14. コントロールポイントは心内膜壁の輪郭に関連付けられている、請求項13記載の方法。
  15. 方法は心内膜壁の変形可能な動きをトラッキングする、請求項14記載の方法。
  16. オブジェクトをトラッキングするためのシステムにおいて、該システムは次のものを含む、すなわち、
    画像フレームのビデオシーケンスを捕捉するための少なくとも1つのカメラ、
    該少なくとも1つのカメラに関連付けられたプロセッサを含み、該プロセッサは次のステップを実施する、すなわち、
    i)オブジェクト外観分布のサンプルベースの表示を維持するステップ、
    ii)オブジェクトを1つ以上のコンポーネントに分割するステップ、
    iii)各コンポーネントに対して、サンプルベースの表示に関してその位置及び不確定性を推定するステップ、
    iv)最も主要な動きを決定するために各コンポーネントに対して可変バンド幅密度ベースの融合(Variable Bandwidth Density Based Fusion VBDF)を適用するステップ、
    v)動き推定値を使用してオブジェクトのトラックを決定するステップ
    を実施する、オブジェクトをトラッキングするためのシステム。
  17. オブジェクトのトラッキングはオブジェクトを含む各後続画像フレームにおいて実施される、請求項16記載のシステム。
  18. コンポーネントの相対的位置はグローバルパラメトリックモーションを使用して制約される、請求項16記載のシステム。
  19. コンポーネント位置に関する残留誤差はモデルテンプレートに関連して測定される、請求項16記載のシステム。
  20. もし残留誤差が予め定められた閾値より下であるならば、現在のフレームがモデルテンプレートに加えられる、請求項19記載のシステム。
  21. 高い残留誤差は、オブジェクトが少なくとも部分的に遮蔽されている(occluded)ことを指示する、請求項20記載のシステム。
  22. 高い残留誤差は、オブジェクトが照明条件における変化により影響を受けていることを指示する、請求項20記載のシステム。
  23. トラッキングされているオブジェクトは顔である、請求項16記載のシステム。
  24. トラッキングされているオブジェクトは人体である、請求項16記載のシステム。
  25. オブジェクト外観分布のサンプルベースの表示は画像フレームからオフラインで得られるモデルテンプレートを含む、請求項16記載のシステム。
  26. オブジェクト外観分布のサンプルベースの表示は画像フレームからオンラインで得られるモデルテンプレートを含む、請求項16記載のシステム。
  27. コンポーネントの相対的位置は形状モデルを使用して制約される、請求項16記載のシステム。
JP2006554240A 2004-02-20 2005-02-18 ロバストな情報融合を利用するオブジェクトのマルチモーダルコンポーネントベースドトラッキングのための方法及びシステム Pending JP2007523429A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US54623204P 2004-02-20 2004-02-20
US11/058,784 US7072494B2 (en) 2004-02-20 2005-02-16 Method and system for multi-modal component-based tracking of an object using robust information fusion
PCT/US2005/005248 WO2005083634A1 (en) 2004-02-20 2005-02-18 Method and system for multi-modal component-based tracking of an object using robust information fusion

Publications (1)

Publication Number Publication Date
JP2007523429A true JP2007523429A (ja) 2007-08-16

Family

ID=34863952

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006554240A Pending JP2007523429A (ja) 2004-02-20 2005-02-18 ロバストな情報融合を利用するオブジェクトのマルチモーダルコンポーネントベースドトラッキングのための方法及びシステム

Country Status (5)

Country Link
US (1) US7072494B2 (ja)
EP (1) EP1716541A1 (ja)
JP (1) JP2007523429A (ja)
KR (1) KR100860640B1 (ja)
WO (1) WO2005083634A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011104381A (ja) * 2009-11-19 2011-06-02 Medison Co Ltd 超音波空間合成映像を提供する超音波システムおよび方法

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7466841B2 (en) * 2004-08-16 2008-12-16 Siemens Corporate Research, Inc. Method for traffic sign detection
US7929728B2 (en) * 2004-12-03 2011-04-19 Sri International Method and apparatus for tracking a movable object
US7720257B2 (en) * 2005-06-16 2010-05-18 Honeywell International Inc. Object tracking system
US7620205B2 (en) * 2005-08-31 2009-11-17 Siemens Medical Solutions Usa, Inc. Method for characterizing shape, appearance and motion of an object that is being tracked
JP4532419B2 (ja) * 2006-02-22 2010-08-25 富士フイルム株式会社 特徴点検出方法および装置並びにプログラム
US20070237359A1 (en) * 2006-04-05 2007-10-11 Zehang Sun Method and apparatus for adaptive mean shift tracking
US7884754B1 (en) 2006-04-28 2011-02-08 The United States Of America As Represented By The Secretary Of The Navy Method of distributed estimation using multiple asynchronous sensors
US7885469B2 (en) * 2006-05-22 2011-02-08 Microsoft Corporation Encoded high dynamic range textures
EP1879149B1 (en) * 2006-07-10 2016-03-16 Fondazione Bruno Kessler method and apparatus for tracking a number of objects or object parts in image sequences
US7636098B2 (en) 2006-09-28 2009-12-22 Microsoft Corporation Salience preserving image fusion
EP2171683A1 (en) 2007-06-29 2010-04-07 Thomson Licensing Apparatus and method for reducing artifacts in images
US9019381B2 (en) * 2008-05-09 2015-04-28 Intuvision Inc. Video tracking systems and methods employing cognitive vision
TWI382762B (zh) * 2008-11-17 2013-01-11 Ind Tech Res Inst 移動物體的追蹤方法
US8478012B2 (en) * 2009-09-14 2013-07-02 General Electric Company Methods, apparatus and articles of manufacture to process cardiac images to detect heart motion abnormalities
EP2345998B1 (en) * 2009-12-01 2019-11-20 Honda Research Institute Europe GmbH Multi-object tracking with a knowledge-based, autonomous adaptation of the tracking modeling level
JP2012133759A (ja) * 2010-11-29 2012-07-12 Canon Inc 侵入物体の検知を行うことができる物体追尾装置、物体追尾方法及び記憶媒体
US10849574B2 (en) * 2011-06-22 2020-12-01 Medtronic Navigation, Inc. Interventional imaging
EP2620162A1 (de) 2012-01-27 2013-07-31 Life Science Inkubator Enzym-Polymer-Konjugat zur Endotoxin-Detoxifikation
JP6044293B2 (ja) * 2012-11-19 2016-12-14 株式会社Ihi 3次元物体認識装置および3次元物体認識方法
US9727778B2 (en) * 2014-03-28 2017-08-08 Wipro Limited System and method for guided continuous body tracking for complex interaction
DE102015104937A1 (de) * 2015-03-31 2016-10-06 Valeo Schalter Und Sensoren Gmbh Verfahren zum Beurteilen einer Zugehörigkeit eines Erfassungspunkts zu einem Objekt in einem Umgebungsbereich eines Kraftfahrzeugs sowie Fahrerassistenzsystem
CN107134186A (zh) * 2016-02-29 2017-09-05 九江职业技术学院 带有多模成像功能的控管一体化智能教学终端
US10242447B2 (en) * 2016-09-08 2019-03-26 Sony Corporation Video processing system and method for deformation and occlusion resistant object tracking in video content
US10558886B2 (en) * 2017-11-15 2020-02-11 International Business Machines Corporation Template fusion system and method
CN108093213B (zh) * 2017-12-13 2020-05-08 中国人民解放军陆军工程大学 一种基于视频监控的目标轨迹模糊数据融合方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002358526A (ja) * 2001-06-01 2002-12-13 Nhk Engineering Services Inc 映像オブジェクト検出・追跡装置
JP2003196661A (ja) * 2001-12-07 2003-07-11 Xerox Corp 視覚型動き解析及び視覚型追跡のためのアピアランスモデル

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6301370B1 (en) * 1998-04-13 2001-10-09 Eyematic Interfaces, Inc. Face recognition from video images
US6502082B1 (en) 1999-06-01 2002-12-31 Microsoft Corp Modality fusion for object tracking with training system and method
US6674877B1 (en) * 2000-02-03 2004-01-06 Microsoft Corporation System and method for visually tracking occluded objects in real time

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002358526A (ja) * 2001-06-01 2002-12-13 Nhk Engineering Services Inc 映像オブジェクト検出・追跡装置
JP2003196661A (ja) * 2001-12-07 2003-07-11 Xerox Corp 視覚型動き解析及び視覚型追跡のためのアピアランスモデル

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN7009003168, Xiang Sean Zhou, Dorin Comaniciu, Alok Gupta, "An Information Fusion Framework for Robust Shape Tracking", WORKSHOP ON STATISTICAL AND COMPUTATIONAL THEORIES OF VISION SCTV, 20031012, p.1−24, US *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011104381A (ja) * 2009-11-19 2011-06-02 Medison Co Ltd 超音波空間合成映像を提供する超音波システムおよび方法
US8968199B2 (en) 2009-11-19 2015-03-03 Samsung Medison Co., Ltd. Spatial compound imaging in an ultrasound system

Also Published As

Publication number Publication date
WO2005083634A1 (en) 2005-09-09
US7072494B2 (en) 2006-07-04
KR100860640B1 (ko) 2008-09-26
US20050185826A1 (en) 2005-08-25
EP1716541A1 (en) 2006-11-02
KR20060116236A (ko) 2006-11-14

Similar Documents

Publication Publication Date Title
US7072494B2 (en) Method and system for multi-modal component-based tracking of an object using robust information fusion
US7558402B2 (en) System and method for tracking a global shape of an object in motion
Tissainayagam et al. Object tracking in image sequences using point features
AU2004294137B2 (en) System and method for detecting and matching anatomical structures using appearance and shape
Zhou et al. An information fusion framework for robust shape tracking
US6999599B2 (en) System and method for mode-based multi-hypothesis tracking using parametric contours
US7376246B2 (en) Subspace projection based non-rigid object tracking with particle filters
US9014465B2 (en) System and method for detecting and tracking features in images
Georgescu et al. Real-time multi-model tracking of myocardium in echocardiography using robust information fusion
US20030108220A1 (en) Robust, on-line, view-based appearance models for visual motion analysis and visual tracking
US20070091085A1 (en) Automatic 3D Face-Modeling From Video
EP2854104A1 (en) Semi-dense simultaneous localization and mapping
Vogler et al. The best of both worlds: Combining 3d deformable models with active shape models
Georgescu et al. Multi-model component-based tracking using robust information fusion
CN1965332A (zh) 利用鲁棒信息融合来基于多模组成部分地跟踪对象的方法和***
Santiago et al. A robust active shape model using an expectation-maximization framework
Berger et al. Contour tracking in echocardiographic sequences without learning stage: Application to the 3d reconstruction of the beating left ventricule
Martínez et al. Tracking human body parts using particle filters constrained by human biomechanics
Fleck et al. PFAAM An Active Appearance Model based Particle Filter for both Robust and Precise Tracking
Lee Statistical and geometric methods for visual tracking with occlusion handling and target reacquisition
Wong et al. Real time human body tracking using wavenet
Ding et al. Robust visual tracking using information theoretical learning
Chateau et al. Realtime kernel based tracking
Sumathy Face Recognition in Multi Camera Network with Sh Feature
Hoffmann et al. Occlusions and active appearance models.

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090708

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20091006

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20091014

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20091105

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20091112

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20091204

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20091211

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100408