JP5912191B2 - 追跡システムを最適化するためのシステムおよび方法 - Google Patents

追跡システムを最適化するためのシステムおよび方法 Download PDF

Info

Publication number
JP5912191B2
JP5912191B2 JP2014558220A JP2014558220A JP5912191B2 JP 5912191 B2 JP5912191 B2 JP 5912191B2 JP 2014558220 A JP2014558220 A JP 2014558220A JP 2014558220 A JP2014558220 A JP 2014558220A JP 5912191 B2 JP5912191 B2 JP 5912191B2
Authority
JP
Japan
Prior art keywords
pose
tracking
data
optimizing
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014558220A
Other languages
English (en)
Other versions
JP2015513143A (ja
Inventor
ムスタファ・ヤグジオグル
エルカン・ヤヴズ
オズグル・ユルマズ
セルジュク・サンドュクジュ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aselsan Elektronik Sanayi ve Ticaret AS
Original Assignee
Aselsan Elektronik Sanayi ve Ticaret AS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aselsan Elektronik Sanayi ve Ticaret AS filed Critical Aselsan Elektronik Sanayi ve Ticaret AS
Publication of JP2015513143A publication Critical patent/JP2015513143A/ja
Application granted granted Critical
Publication of JP5912191B2 publication Critical patent/JP5912191B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、コンピュータ計算及びシミュレーションの技術分野に関し、可視性のシミュレーションによって、光学的な目標の追跡システムにおける基準のマーカを最適化する方法を含む。
或る環境において3次元の目標を追跡するとともに、所定の座標系に関してその位置及び向き(ポーズ)をコンピュータ計算する方法及びモデルが在ることが知られている。このような種類の追跡システムは、例えば航空機において、パイロットの頭部の方向を決定するために用いられる。例えば表示装置の座標系に関して一旦、方向が獲得されると、これに応じてグラフィクスを生成することができる。磁気的、機械的あるいは光学的な手段を用いる場面において、目標を追跡するための様々な方法が存する。近年、目標の空間的な関係も、磁気センサまたはレーザビームを用いて決定され得るが、本発明は特に、カメラに基づく(デイティヴィ(day−tv)、温度、赤外線、飛行時間などの)追跡物を用いるシステムに関する。
光学的なカメラに基づくシステムの一つにおいて、パイロットは(基準のマーカである)パターンを備えるヘルメットを着用し、少なくとも一つの追跡カメラがこのパターンに基づき幾何学的な計算を用いて、ヘルメットの位置及び向きを決定する。よって、追跡パターンを有する目標とカメラの間の空間的な関係をコンピュータ計算することは、従来技術において周知である。本明細書において、空間的な関係に言及するときはいつでも、一方の実体に対する他方の所定の基準系間の関係を意味すると理解されるべきである。基準を用いて実体の位置及び向きを決定することは、ポーズの見積もり問題と呼ばれるが、以下のように述べられる。すなわち、目標の3次元(3D)点とその目標の画像平面上への二次元(2D)射影との間に、N個の特徴の対応物の組が与えられたとき、カメラの基準系に関して目標の回転及び並進を見つけ出せるか、ということである。この目的は、目標の3D位置及び向きがわかるように、カメラと3D目標間の回転及び並進を探すことである。このような基準系は、一般的に対象の目標の各パターンに基づく。他の座標系に関する追跡カメラの位置及び向きは、追跡システムにおいて既知である(或いは計算または計測され得る)ので、追跡カメラのセンサとともに、更には他の座標系とともに、ヘルメットの空間的な関係をコンピュータ計算することもできる。この文脈において、「追跡目標」は、追跡パターン(基準のマーカ)を有し、追跡システムによって追跡されている目標を意味する。追跡目標は、ヘルメットに搭載された追跡システムなどにおけるヘルメットと、他のどのような目標のいずれであってもよい。
カメラに基づく追跡システムにおいて用いられるパターンは、可視光のカメラによって追跡される(一般的には白黒の)グラフのパターン(受動的パターン)、または(例えば光放出ダイオード、すなわちLEDなどの)光源のアレイ(能動的パターン)のいずれか一方である。このような光源は、カメラセンサとフィルタセットの適切な選択によって、電磁波スペクトラムの赤外領域に在るように選ばれ得る。他の設定も可能であるが、とりわけ最も簡便なのは赤外線LEDを備えるものである。これらのシステムは不適切な発光の条件下で稼働できるからである。追跡目標上でのLEDの位置(場所)は、小さいポーズのエラーが達成されつつ、ポーズの範囲が高いことを確実にするように、注意深く決定されるべきである。基準のマーカの位置を決定して最適化するために、近年使用される方法が幾つか在る。そのような使用方法の一つにおいて、可視の基準の数と、光学センサに対するこれらの相対的な角度は、最適な基準の位置を決定するための制約として用いられる。この方法は、基準のマーカを備える大きい領域において用いられることが意図され、固定のカメラによってキャプチャされている移動中の追跡目標上で、基準の場所を最適化することには適用できない。加えて、追跡システムを搭載するヘルメットを考察するとき、パイロットの動きの傾向も、基準の可視性を計算するときに考慮されるべきである。更には、ポーズの見積もりアルゴリズムに用いられるポーズの見積もりパラメータは、システムの出力精度に直接影響するが、現行の方法においては考慮されていない。
現行の方法は、システムのポーズの見積もり精度を全てともに最適化するように、追跡システムのカメラ及び基準の位置をシミュレートする効果的な方法を提示していない。この問題に対する解決策を提供すべく、固定のカメラの正面において移動している追跡目標上で基準の位置を決定するための更なるステップを用いて、新しい方法が導入されるべきである。
従来技術の特許文献1は、最適な基準の位置を決定してエラーの限られたポーズをコンピュータ計算するための制約として、可視の基準の数とキャプチャ装置に対するこれらの相対的な角度を用いる方法を開示する。
米国特許出願第2004/239756号明細書
本発明の目的は、システムを最適化するように、追跡システムのカメラ及び基準の位置並びにポーズの見積もりアルゴリズムのパラメータをシミュレートすることである。
本発明の目的を達成するように実現されるシステム及び方法は、添付の図面において図示される。
図において示される要素は、番号及び文字が符号の説明欄に参照するように、個別に参照される。
追跡システムを最適化するための方法(100)であって、
追跡目標上で有り得る能動的マーカの位置及び向きを表すデータと、動作条件下で上記追跡目標の有り得るポーズを表すポーズのデータと、少なくとも一つのカメラの位置及び向きを取得するステップ(101)と、
上記ポーズのデータのあらゆるポーズに対して少なくとも一つのカメラから有り得る能動的マーカの位置を表すメッシュ上の各ノードの可視性をコンピュータ計算して、ポーズ毎にあらゆるカメラからの可視性が一回カウントされるにおいて、何回ノードが可視であるかをカウントする可視性の値を含む全てのノードを表す可視性の値のリストを生成するステップ(102)と、
最高の可視性のカウントを伴い、従前に選択されなかったノードを、能動的マーカの配置ノードとして選択するステップ(103)と、
非最大の抑制しきい値よりも上記選択されたノードに近接したノードを除去するステップ(104)と、
少なくとも一つの所定数の選択されたノードを有するポーズを除去するステップ(105)と、
全てのポーズの内の所定のパーセンテージが所定数の選択されたノードを有するか否かテストするステップ(106)と、
上記テストが否定的ならば、上記コンピュータ計算するステップと、選択するステップと、ノードを除去するステップと、除去するステップと、テストするステップを繰り返すステップ(106a)と、
最後の選択されたノードの位置をポーズ毎に各カメラのビューポートの画像平面上に射影して、上記システムが最適化される追跡アルゴリズムを用いてカメラのビューポートに関するメッシュのポーズを計算するステップ(107)と、
グラウンドトルースデータと追跡アルゴリズムの結果を比較することにより、ポーズのエラー及び追跡アルゴリズムに見積もられ得るポーズのパーセンテージであるポーズの範囲を計算するステップ(108)と、
動的マーカの配置ノードの数及び位置とともに、ポーズのエラー及び範囲の結果を記録して出力するステップ(109)と、
新規の最適化パラメータのセット、ポーズの見積もりパラメータのセット、カメラの場所のセットまたは3D目標のメッシュが存在するのか否かテストするステップ(110)と、
上記テストが肯定的ならば、上記新規のデータを用いてメッシュのデータを取得するステップからやり直すステップ(110a)と、
上記結果の間で、カメラの場所のセット、3Dメッシュのデータ、選択されたノードの3D座標であるマーカツリー、最適化パラメータのセット、及びポーズの見積もりアルゴリズムのパラメータのセットを、最小のポーズのエラーに伴うパラメータのセット、最小の隠れたポーズに伴うシステム、又は最小のマーカの数に伴うシステムを選択することの一つである、少なくとも一つの制約を満たして選択するステップであって、隠れたポーズはポーズの見積もりアルゴリズムがコンピュータ計算できないポーズである、ステップ(111)と
を含む。
好ましい実施形態のシステムの概略図である。 目標上で可能な基準の位置のメッシュのグラフを示す。 最適化ルーティンの結果のグラフを示す。 本発明の好ましい方法のフローチャートである。
まず、(例えば赤外線LEDを備える頭部の追跡システムのためのヘルメットなどの)追跡目標上での、能動的基準の可能な位置は、上記問題を離散的な最適化問題に変換するように数学的にモデル化される。モデルを数学的に表すためには様々な方法が現在知られており、非常に基礎的な例は、3次元座標による目標上で各位置を表すことができる。なお、メッシュ(モデル)上のこのような座標が、共通の座標系に対して規定され、可能なカメラの場所に関連し得るべきだということは重要である。同時に、動作条件下で追跡目標の可能なポーズを表すポーズのデータも、導入されるべきである。本発明の好ましい構成において、このようなデータは、現実の動作条件下の現実の目標上に配置される慣性計測装置(IMU)を用いて取得され、目標の運動はポーズのデータとして用いられるように記録される。別の選択肢は、精密で完全なポーズのデータを生成できる多くの高分解能カメラと、追跡目標に搭載される能動的マーカを備えた、光学に基づくポーズの見積もり設定を用いることである。このデータ取得システムは実際とは異なり、そのため現実の動作条件下で目標のポーズをより精密で完全に取得することが期待される。これらのデータは、再度離散的であり、様々な動きのシナリオ下で目標の多くの可能なポーズを表す。提示したとおり、このデータは現実の動作条件を効果的にシミュレートする計算において考慮されるべきである。一例として、このデータは、頭部の追跡システムを用いる航空機においてパイロットの頭部の動きを表す。
航空機の場合、頭部の追跡物が稼働するコックピット(又は部屋)は一般的に知られ、カメラは、仮想的に対象人物(すなわちパイロット)の名目上の頭部に関するコックピットの3Dモデル内部に配置され得る。このことは、最適化が利用するポーズのデータベースを生成するように用いられ得る。カメラの場所に機械的でかつシステムに関連した限界が在ったとしても、カメラが配置でき、最適な場所が提案の最適化アルゴリズムの出力を用いて探索されるマージンが在る。
追跡目標とカメラの相対的な空間位置を知ることで、入力のポーズのデータを用いてメッシュを数学的に並進および回転させることができ、基準の可視性が計算できる。次のステップ(102)において、あらゆるポーズに対する全てのカメラのビューポートからの、メッシュ上の各ノードの可視性は計算され、可視性の値のリストが全てのノードを表して生成される。可視性の値は、全ポーズのデータを考慮して、或るノードが少なくとも一つのカメラのビューポートから何回可視であったかを表す。ポーズ毎のあらゆるカメラからの可視性は、一回のみカウントされる。実際のポーズの見積もりシステムにおいて一つ以上のカメラが存するとき、メッシュ上の位置は、可視としてカウントされるためには、少なくとも一つのカメラから可視であるべきであり、異なるビューポートからの多重の可視性は排除される。
好ましい構成において、閉塞モデルは、ポーズを与えられる3Dモデルの点(能動的マーカ)の可視性を見積もるために用いられる(非特許文献1)。このモデルはコンピュータグラフィクスにおいて発展した光線追跡技術に基づく。LEDの基準の場合、可視性のコンピュータ計算は、目標の座標系に対するLEDの法線と、LEDの発光の円錐角と、既知の頭部のポーズに基づく。LEDの法線とカメラの座標系におけるカメラ平面の法線との間の角度は、LEDがどれだけ切り立ってカメラの方向に向けられるのか(LEDの方向角)を規定する。LEDの発光の円錐角は、LEDがカメラに対して可視である、最小のLEDの方向角のしきい値を規定する。任意のポーズに対して、LEDの方向角は、各LEDに対してその可視性を決定するようにコンピュータ計算され得る。目標の座標系に対するマーカの法線と、マーカの発光の円錐角と、既知の目標のポーズは、どんな能動的マーカの追跡システムにも同等に適用できる。
次にステップ(103)において、最高の可視性のカウントを備えるノードは、能動的マーカの配置ノードとして選択される。最高の可視性のカウントを備えるノードは、従前にはマーカのノードとして決定されなかったが、決定されたカメラ位置とポーズのデータの大半に対して可視であるので、選択される。上記ノードは、マーカの配置位置を表す。マーカの配置に続いて、非最大の抑制しきい値よりも選択されたノードに近接したノードは、ステップ(104)において、以下の繰り返しにて非常に近接したノードの選択を防止するために、除去される。
マーカの配置処理を完了するために、アルゴリズムは、少なくとも所定数(例えばK)の配置されたマーカを有するポーズの内の所定のパーセント(例えばX)が可視であることを要求する。このステージにおいて、各ポーズに対して可視の(既に選択され且つ配置された)マーカの総数は、どのポーズが数Kのマーカの限界を越えるのか調査するようにコンピュータ計算される。マーカの配置が進むにつれて、或る数のマーカにおいて、パーセントXのポーズが少なくとも数Kの可視のマーカを有することが期待される。しかしながら、本処理の間に、ポーズがこの条件を満たすならば、上記ポーズはポーズのデータベースから除外されるべきである。これにより、メッシュのマーカの可視性解析において、マーカ場所の分類は、未だ十分な数の可視のマーカを有しないポーズに対して実行されることが保証される。この除外は、既に十分な数の可視のマーカを有するポーズに対して、マーカの不必要な配置を防止する。従って、所定数の選択されたノードを有するポーズはステップ(105)において除外され、マーカの配置は、全ノードの内の十分なパーセンテージが選択されたノード(106)を十分に有する場合、停止される。
マーカの配置手順が、全ポーズの内の所定のパーセンテージが少なくとも数Kのマーカを有する後に終了するとき、(マーカツリーと呼ばれる)選択されたノードの3D座標は、光学的頭部追跡アルゴリズムに通される。マーカは、ステップ(107)において、マーカが各カメラから観られているように、ポーズ毎に画像平面上へ射影される。このような2Dのマーカ画像は、シミュレートされるシステムにて用いられるポーズの見積もりアルゴリズムに通される。LEDのマーカの場合、2Dのマーカ画像は2D平面上の点として表され、好ましい構成において、一定量のノイズが、合成のLEDの中心画像を生成するように加えられる。ポーズの見積もりアルゴリズムは、ポーズ毎に独立して、与えられたマーカ画像(又はLEDの座標と中心画像)に対するポーズを見積もる。
ステップ(108)において、カメラの場所のマーカツリーのポーズの見積もりアルゴリズムの構成のためのアルゴリズムの精度および範囲(ポーズの見積もりアルゴリズムによって見積もられ得るポーズのパーセント)がテストされる。ポーズのエラーはコンピュータ計算され、アルゴリズムがコンピュータ計算できないポーズは、隠れたポーズとして受け入れられる。マーカの現実の位置は、入力メッシュとカメラの場所のデータが初めにシミュレーションに入力されるとき、既知である。そのため、マーカの現実の位置は、それらをポーズの見積もりアルゴリズムの結果(グラウンドトルースデータ)と比較することによってポーズのエラーを決定するように用いられ得る。
良好なマーカツリーの構成は、最小数のマーカを伴い、小さいポーズのエラーと小さい隠れたポーズのパーセント(ポーズの範囲の逆)を有することを期待される。マーカ場所の最適化およびポーズの見積もりにおいて、多数のパラメータが存し、カメラの場所、カメラの視界、(能動的なLEDのマーカの場合には)LEDの発光の角度、数K(各ポーズに対して可視のマーカがない最小数)、非最大の抑制距離のしきい値、中心上での画像のノイズ、及びポーズの見積もりアルゴリズムにおける多数のパラメータなどが在る。
このような最適化およびシミュレーション環境は、以下の事項を見つけ出すために用いられ得る。
1.カメラの場所
2.メッシュのデータを介した目標の3Dモデル
3.マーカツリーと最適化パラメータのセット
4.ポーズの見積もりパラメータ
よって、上記環境はシステムおよびアルゴリズム設計のために完全な環境である。パラメータは、好ましい構成において系統的に変えられて、3つの出力が記録される。3つの出力は、ポーズのエラーと、隠れたポーズのパーセントと、ステップ(108)において配置されたマーカの数である。上記方法の全体は、様々な入力データとポーズの見積もり結果をコンピュータ計算するためのポーズの見積もりアルゴリズムによって実施され得る。ポーズの精度と範囲の結果は、本ステップにおいても記録される。追跡目標モデルとして、ポーズの空間と可能なカメラの場所は(例えば航空機における)システム、コックピット又は機械的な設計における変更に応じて変更するとともに、最適化ルーティンはカメラの場所を微調整し、マーカツリーを見つけ出し、更にポーズの見積もりアルゴリズムを調整するように、再度実行され得る。比較される新規のデータセットが在るならば、上記方法は、チェック110に従ってステップ101から新規のデータを用いてやり直す。このようなデータは、最適化パラメータのセット、ポーズの見積もりパラメータのセット、カメラの場所のセット、または処理される3D目標のメッシュを含む。
パラメータ構成のサンプル出力は、プロットされる。X軸とY軸は、ポーズのエラーと隠れたポーズのパーセントであり、一方、マーカの数はドットのサイズにて符号化されるとともに、プロット上にテキストで書き込まれる。シミュレーションの出力は、システムエンジニアに、受け入れ可能な能動的マーカの数及びポーズの見積もり精度上の制約に応じて構成を選ぶための選択を提供する(図3)。
結果を生成するために用いられるパラメータの最後のセットと、カメラの場所のセットと、3Dメッシュのデータのマーカツリーと、最適化パラメータのセットと、ポーズの見積もりアルゴリズムのパラメータのセットの間で、少なくとも一つの制約を満たすことは、ステップ(111)において最適化されたポーズの見積もりシステムのパラメータとして選択される。最適化パラメータは、基本的には、非最大の抑制距離のしきい値と、所定数の選択と、所定数の選択されたノードを有する全ポーズの内の所定のパーセンテージである。好ましい構成において、言及される制約は以下の一つであり得る。すなわち、言及される制約は、最小のポーズのエラーに伴うパラメータのセット、最小の隠れたポーズに伴うシステム、又は最小のマーカの数に伴うシステムを選択することである。他の好ましい構成において制約は、以上の制約の組み合わせである。例えば、可能なマーカの位置上に如何なる制約もない場合、最小のポーズのエラー及び隠れたポーズのパーセントを備えるシステムが選択され得、或いは隠れたポーズ上に如何なる制約もない場合、マーカの最小数を備えるシステム及び最小のマーカの数が選択される。
本方法の好ましい構成において、「十分に選択されたノードを備えるポーズを除去する」ステップ(105)は、初期のメッシュに所定数のマーカを配置する前に実行されない。このことにより、ステップ(105)において少なくとも一つのポーズの排除が保証される。さらに他の構成において、ステップ(103)において能動的マーカの配置ノードとして選択するのに、空で利用可能なノードが全くない場合、処理はステップ(110)に送られる。この状況は、現在のメッシュが与えられたパラメータ及び構成のために十分なマーカを配置するのに適していないことを意味する。方法は、もし可能であれば新規のデータセットを受信することによって継続される。
追跡システムを最適化するためのシステム(1)であって、
ポーズ、メッシュ、及びカメラの位置データを受信するとともに、上記データを用いて追跡システムを最適化するための方法(100)を実行して、
上記システムが最適化されるための追跡アルゴリズムを実行するとともに、方法(100)によって見つけ出される結果を出力するように構成される少なくとも一つの処理部(2)と、
ユーザのような外部ソースからポーズ、メッシュ、及びカメラの位置データを受信するように構成される処理部(2)に接続されるとともに、処理部(2)によって見つけ出される結果を出力する少なくとも一つの入力/出力装置(3)と、
処理部(2)に接続されて、必要なときに、処理部(2)によって見つけ出される最適化の結果、並びにどんなポーズ、メッシュ、及びカメラの位置データをも格納するように構成されるメモリ部(4)と
を基本的に含む。
本発明の好ましい実施形態において、処理部(2)は、入力/出力装置(3)からポーズ、メッシュ、及びカメラの位置データを受信するように構成される。方法(100)は、追跡目標の可能な向き及び場所を表す)ポーズのデータのシーケンスと、各データセットに対する(追跡目標上の可能なLEDの位置を表す)単一のメッシュのデータ上に適用される。本発明に係るシステム(1)の他の実施形態において、処理部(2)は、メモリ部(4)からポーズ、メッシュ、及びカメラの位置データを受信するように構成される。これにより、新規のデータセット取得を必要性とすることなく、従前に記録されたデータを解析してシミュレートすることができる。
入力/出力装置(3)は、好ましくは、例えば光学的/磁気的、或いはレーザの追跡などの既知の手段によって、対象の追跡目標の少なくとも一つのポーズのデータを受信するように構成される。上記ポーズのデータは、好ましくは、対象の実際の追跡システムにおける少なくとも一つのカメラ位置に対する所定の基準系に関する。好ましい実施形態において、入力/出力装置(3)は、好ましくは、目標に搭載される慣性計測装置(IMU)、または精密で完全なポーズのデータを生成できる、光学に基づく高分解能の多重のカメラのポーズの見積もりデータ取得システムを用いて、対象の追跡目標の少なくとも一つのポーズのデータを受信するように構成される。このようにすることで、現実の動作条件下の追跡目標のどんな位置および向きも、相当現実的なアプローチによって処理部(2)上でシミュレートされ得る。カメラの位置データおよびメッシュのデータは、現在知られるコンピュータ支援のモデリングツールにより、入力/出力装置を通してユーザによって生成される。よって、入力/出力装置(3)は、例えばモニタ、キーボード、マウス、カメラまたは組み合わせなどの、従来技術において知られるどんなインタフェース装置でもある。
メモリ部(4)は、例えばRAM(ランダムアクセスメモリ)、ROM(読み出し専用メモリ)、フラッシュメモリまたはハードディスクなどの、従来技術において知られるどんな揮発性または不揮発性メモリ装置でもある。これらメモリ装置は、一時的または永続的に上記方法(100)に関した入力、出力または中間のデータを格納するように用いられる。
システム(1)とともに方法(100)は、システムを最適化するように、追跡システムのカメラ、及び基準の位置、並びにポーズの見積もりアルゴリズムのパラメータを効果的にシミュレートできる。
このような基礎的な概念の範囲内で、本発明に係る「追跡システムの精度を計測するためのシステム及び方法」(1),(100)の幅広い実施形態を展開することができる。本発明は、本明細書に記載される例に限定され得ないものであり、本質的に特許請求の範囲に応じるものである。
1…追跡システムを最適化するためのシステム
2…処理部
3…入力/出力装置
4…メモリ部
100…追跡システムを最適化するための方法

Claims (18)

  1. 追跡目標上に配置され得る能動的マーカの位置及び当該能動的マーカが可視である向きを表すデータと、動作条件下で上記追跡目標が取り得るポーズを表すポーズのデータと、少なくとも一つのカメラの位置及び向きを取得するステップ(101)と、
    上記ポーズのデータのあらゆるポーズに対して少なくとも一つのカメラから有り得る能動的マーカの位置を表すメッシュ上の各ノードの可視性をコンピュータ計算して、ポーズ毎に何れかのカメラから可であることを一回カウントとして一つのノードが何回、可視であるかをカウントする可視性の値を含む、全てのノードを表す可視性の値のリストを生成するステップ(102)と、
    能動的マーカの配置ノードを選択するステップ(103)であって、能動的マーカの配置ノードとして選択されていないノードの中で最高の可視性のカウントを伴ノードを、能動的マーカの配置ノードとして選択するステップ(103)と、
    非最大の抑制しきい値よりも上記選択されたノードに近接したノードを除去するステップ(104)と、
    少なくとも所定数の選択されたノードを有するポーズを、各ノードの可視性をカウントするために用いるポーズから除外するステップ(105)と、
    全てのポーズの内の所定のパーセンテージが所定数の選択されたノードを有するか否かテストするステップ(106)と、
    上記テストが否定的ならば、上記コンピュータ計算するステップと、選択するステップと、ノードを除去するステップと、除去するステップと、テストするステップを繰り返すステップ(106a)と、
    最後の選択されたノードの位置をポーズ毎に各カメラのビューポートの画像平面上に射影して、追跡システムが最適化される追跡アルゴリズムを用いてカメラのビューポートに関するメッシュのポーズを計算するステップ(107)と、
    グラウンドトルースデータと追跡アルゴリズムの結果を比較することにより、ポーズのエラー、及び追跡アルゴリズムに見積もられ得るポーズのパーセンテージであるポーズの範囲を計算するステップ(108)と、
    能動的マーカの配置ノードの数及び位置とともに、ポーズのエラー及び範囲の結果を記録して出力するステップ(109)と、
    新規の最適化パラメータのセット、ポーズの見積もりパラメータのセット、カメラの場所のセットまたは3D目標のメッシュが存在するのか否かテストするステップ(110)と、
    上記テストが肯定的ならば、上記新規のデータを用いて、ステップ(101)、ステップ(102)、ステップ(103)、ステップ(104)、ステップ(105)、ステップ(106)、ステップ(106a)、ステップ(107)、ステップ(108)及びステップ(109)を順次、繰り返すステップ(110a)と、
    上記結果の間で、カメラの場所のセット、3Dメッシュのデータ、選択されたノードの3D座標であるマーカツリー、最適化パラメータのセット、及びポーズの見積もりアルゴリズムのパラメータのセットを、最小のポーズのエラーに伴うパラメータのセット、最小の隠れたポーズに伴うシステム、又は最小のマーカの数に伴うシステムを選択することの一つである、少なくとも一つの制約を満たして選択するステップであって、隠れたポーズはポーズの見積もりアルゴリズムがコンピュータ計算できないポーズである、ステップ(111)と
    を含む追跡システムを最適化するための方法(100)。
  2. ポーズのデータは、現実の動作条件下の現実の目標上に配置される慣性計測装置(IMU)を用いて取得されるとともに、
    目標の運動はステップ(101)において記録される
    ことを特徴とする請求項1に記載の追跡システムを最適化するための方法(100)。
  3. ポーズのデータは、追跡目標に搭載される能動的マーカと、ステップ(101)において精密で完全なポーズのデータを生成できる多重の高分解能カメラとを備える光学に基づくポーズのデータ取得システムを用いて取得される
    ことを特徴とする請求項1に記載の追跡システムを最適化するための方法(100)。
  4. 目標の座標系に対するマーカの法線に基づく閉塞モデルと、能動的マーカの発光の円錐角と、既知の目標のポーズは、ステップ(102)において3Dモデルの点の可視性を見積もるために用いられる
    ことを特徴とする請求項1乃至3のいずれか一つに記載の追跡システムを最適化するための方法(100)。
  5. ステップ(107)において、合成される画像は、ノードの位置を射影した後に一定量のノイズを画像上に加えることによって生成される
    ことを特徴とする請求項1乃至4のいずれか一つに記載の追跡システムを最適化するための方法(100)。
  6. 上記制約は、ステップ(111)において最小のポーズのエラーを伴うシステムを選択することである
    ことを特徴とする請求項1乃至5のいずれか一つに記載の追跡システムを最適化するための方法(100)。
  7. 上記制約は、ステップ(111)において最小の上記隠れたポーズを伴うシステムを選択することである
    ことを特徴とする請求項1乃至6のいずれか一つに記載の追跡システムを最適化するための方法(100)。
  8. 上記制約は、ステップ(111)において最小のマーカの数を伴うシステムを選択することである
    ことを特徴とする請求項1乃至7のいずれか一つに記載の追跡システムを最適化するための方法(100)。
  9. ステップ(105)は、所定数のマーカを初期のメッシュに配置する前に実行されないことを特徴とする請求項1乃至8のいずれか一つに記載の追跡システムを最適化するための方法(100)。
  10. ステップ(103)において、能動的マーカの配置ノードとして選択するのに空で利用可能なノードが全くない場合、処理はステップ(110)に送られる
    ことを特徴とする請求項1乃至9のいずれか一つに記載の追跡システムを最適化するための方法(100)。
  11. ポーズ、メッシュ、及びカメラの位置データを受信するとともに、上記データを用いて請求項1乃至10のいずれか一つに記載の追跡システムを最適化するための方法(100)を実行して、
    上記システムが最適化されるための追跡アルゴリズムを実行するとともに、方法(100)によって見つけ出される結果を出力するように構成される少なくとも一つの処理部(2)と、
    ユーザのような外部ソースからポーズ、メッシュ、及びカメラの位置データを受信して、処理部(2)によって見つけ出される結果を出力するように構成される、上記処理部(2)に接続される少なくとも一つの入力/出力装置(3)と、
    上記処理部(2)に接続されて、処理部(2)によって見つけ出される最適化の結果、並びにどんなポーズ、メッシュ、及びカメラの位置データをも格納するように構成されるメモリ部(4)と
    を含む追跡システムを最適化するためのシステム(1)。
  12. 処理部(2)は、入力/出力装置(3)からポーズ、メッシュ、及びカメラの位置データを受信するように構成される
    ことを特徴とする請求項11に記載の追跡システムを最適化するためのシステム(1)。
  13. 処理部(2)は、メモリ部(4)からポーズ、メッシュ、及びカメラの位置データを受信するように構成される
    ことを特徴とする請求項11又は12に記載の追跡システムを最適化するためのシステム(1)。
  14. 入力/出力装置(3)は、慣性計測装置(IMU)を用いて、考察下で追跡目標の少なくとも一つのポーズのデータを受信するように構成される
    ことを特徴とする請求項11乃至13のいずれか一つに記載の追跡システムを最適化するためのシステム(1)。
  15. 入力/出力装置(3)は、精密で完全なポーズのデータを生成できる、多重の高分解能のカメラを備えた光学に基づくポーズのデータ取得システムを用いて、考察下で追跡目標の少なくとも一つのポーズのデータを受信するように構成される
    ことを特徴とする請求項11乃至13のいずれか一つに記載の追跡システムを最適化するためのシステム(1)。
  16. 入力/出力装置(3)は、ユーザの生成されたカメラの位置データ及びメッシュのデータを受信するように構成される
    ことを特徴とする請求項11乃至15のいずれか一つに記載の追跡システムを最適化するためのシステム(1)。
  17. メモリ部(4)は、揮発性メモリ装置である
    ことを特徴とする請求項11乃至16のいずれか一つに記載の追跡システムを最適化するためのシステム(1)。
  18. メモリ部(4)は、不揮発性メモリ装置である
    ことを特徴とする請求項11乃至17のいずれか一つに記載の追跡システムを最適化するためのシステム(1)。
JP2014558220A 2012-02-22 2012-02-22 追跡システムを最適化するためのシステムおよび方法 Active JP5912191B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/IB2012/050801 WO2013124706A1 (en) 2012-02-22 2012-02-22 System and method for optimizing tracker system

Publications (2)

Publication Number Publication Date
JP2015513143A JP2015513143A (ja) 2015-04-30
JP5912191B2 true JP5912191B2 (ja) 2016-04-27

Family

ID=45894602

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014558220A Active JP5912191B2 (ja) 2012-02-22 2012-02-22 追跡システムを最適化するためのシステムおよび方法

Country Status (7)

Country Link
US (1) US9430700B2 (ja)
EP (1) EP2734977B1 (ja)
JP (1) JP5912191B2 (ja)
KR (1) KR101850048B1 (ja)
ES (1) ES2547321T3 (ja)
PL (1) PL2734977T3 (ja)
WO (1) WO2013124706A1 (ja)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9607387B2 (en) 2013-04-12 2017-03-28 Aselsan Elektronik Sanayi Ve Ticaret Anonim Sirketi System and method for optimizing fiducial marker and camera positions/orientations
US10110881B2 (en) * 2014-10-30 2018-10-23 Microsoft Technology Licensing, Llc Model fitting from raw time-of-flight images
WO2018110432A1 (ja) 2016-12-15 2018-06-21 株式会社ソニー・インタラクティブエンタテインメント 情報処理システム、コントローラデバイス、コントローラデバイスの制御方法、及びプログラム
US10963054B2 (en) 2016-12-15 2021-03-30 Sony Interactive Entertainment Inc. Information processing system, vibration control method and program
JP6634528B2 (ja) 2016-12-15 2020-01-22 株式会社ソニー・インタラクティブエンタテインメント 振動デバイス、及び制御システム
WO2018193514A1 (ja) 2017-04-18 2018-10-25 株式会社ソニー・インタラクティブエンタテインメント 振動制御装置
US11145172B2 (en) 2017-04-18 2021-10-12 Sony Interactive Entertainment Inc. Vibration control apparatus
WO2018193557A1 (ja) 2017-04-19 2018-10-25 株式会社ソニー・インタラクティブエンタテインメント 振動制御装置
WO2018198229A1 (ja) 2017-04-26 2018-11-01 株式会社ソニー・インタラクティブエンタテインメント 振動制御装置
JP6771435B2 (ja) * 2017-07-20 2020-10-21 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および位置情報取得方法
WO2020089675A1 (ru) * 2018-10-30 2020-05-07 Общество С Ограниченной Ответственностью "Альт" Способ и система обратного оптического трекинга подвижного объекта
US10909715B1 (en) * 2019-01-31 2021-02-02 Rockwell Collins, Inc. High-integrity optical pose estimation using coded features
KR102634916B1 (ko) 2019-08-29 2024-02-06 주식회사 엘지에너지솔루션 온도 추정 모델 결정 방법 및 장치, 온도 추정 모델이 적용된 배터리 관리 시스템
US11275453B1 (en) 2019-09-30 2022-03-15 Snap Inc. Smart ring for manipulating virtual objects displayed by a wearable device
US11423573B2 (en) * 2020-01-22 2022-08-23 Uatc, Llc System and methods for calibrating cameras with a fixed focal point
US11798429B1 (en) 2020-05-04 2023-10-24 Snap Inc. Virtual tutorials for musical instruments with finger tracking in augmented reality
US11520399B2 (en) 2020-05-26 2022-12-06 Snap Inc. Interactive augmented reality experiences using positional tracking
KR102298098B1 (ko) * 2020-05-29 2021-09-03 이화여자대학교 산학협력단 Rgb-d 카메라의 트래킹을 통한 3d 모델의 생성 방법 및 장치
US11925863B2 (en) 2020-09-18 2024-03-12 Snap Inc. Tracking hand gestures for interactive game control in augmented reality
US20220160291A1 (en) * 2020-11-23 2022-05-26 Mocxa Health Private Limited System for recording of seizures
US11740313B2 (en) * 2020-12-30 2023-08-29 Snap Inc. Augmented reality precision tracking and display
US12013985B1 (en) 2021-02-25 2024-06-18 Snap Inc. Single-handed gestures for reviewing virtual content
US11861070B2 (en) 2021-04-19 2024-01-02 Snap Inc. Hand gestures for animating and controlling virtual and graphical elements
US11995228B2 (en) 2022-01-11 2024-05-28 Rockwell Collins, Inc. Head tracking system with extended kalman filter combining absolute and relative navigation
CN114563203B (zh) * 2022-03-11 2023-08-15 中国煤炭科工集团太原研究院有限公司 一种模拟井下低能见度环境的方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2001233019A1 (en) * 2000-01-28 2001-08-07 Intersense, Inc. Self-referenced tracking
US8896660B2 (en) * 2003-05-30 2014-11-25 Alcatel Lucent Method and apparatus for computing error-bounded position and orientation of panoramic cameras in real-world environments
JP5594944B2 (ja) * 2008-08-05 2014-09-24 株式会社島津製作所 モーショントラッカ装置
US9804252B2 (en) * 2012-01-17 2017-10-31 Aselsan Elektronik Sanayi Ve Ticaret Anonim Sirketi System and method for measuring tracker system accuracy
US9607387B2 (en) * 2013-04-12 2017-03-28 Aselsan Elektronik Sanayi Ve Ticaret Anonim Sirketi System and method for optimizing fiducial marker and camera positions/orientations

Also Published As

Publication number Publication date
KR20140130096A (ko) 2014-11-07
KR101850048B1 (ko) 2018-05-30
US20140212000A1 (en) 2014-07-31
EP2734977B1 (en) 2015-06-24
PL2734977T3 (pl) 2016-02-29
JP2015513143A (ja) 2015-04-30
ES2547321T3 (es) 2015-10-05
US9430700B2 (en) 2016-08-30
EP2734977A1 (en) 2014-05-28
WO2013124706A1 (en) 2013-08-29

Similar Documents

Publication Publication Date Title
JP5912191B2 (ja) 追跡システムを最適化するためのシステムおよび方法
KR101734746B1 (ko) 기준 마커 및 카메라 위치/배향의 최적화 시스템 및 방법
US9317735B2 (en) Information processing apparatus, information processing method, and program to calculate position and posture of an object having a three-dimensional shape
US20200057831A1 (en) Real-time generation of synthetic data from multi-shot structured light sensors for three-dimensional object pose estimation
CN106524922A (zh) 测距校准方法、装置和电子设备
KR101896301B1 (ko) 깊이 영상 처리 장치 및 방법
US11490062B2 (en) Information processing apparatus, information processing method, and storage medium
US10186051B2 (en) Method and system for calibrating a velocimetry system
WO2021002025A1 (ja) 骨格認識方法、骨格認識プログラム、骨格認識システム、学習方法、学習プログラムおよび学習装置
JP6027121B2 (ja) 測定位置指示装置、測定位置指示方法
JP2019117120A (ja) 画像処理システム、画像処理方法、及びそのプログラム
KR20190050819A (ko) 가정된 캘리브레이션 모델 없이 측정된 데이터를 이용하여 캘리브레이션을 수행하는 방법 및 상기 방법을 수행하는 3차원 스캐너 캘리브레이션 시스템
JP2017167671A (ja) 情報処理装置、情報処理方法およびプログラム
JP4631606B2 (ja) 画像の奥行分布推定方法及び装置及びプログラム
JP2010187130A (ja) カメラ校正装置、カメラ校正方法、カメラ校正プログラムおよびそのプログラムを記録した記録媒体。
KR101921988B1 (ko) 환자의 3차원 골격 모델을 생성하는 방법
KR101813979B1 (ko) 가정된 캘리브레이션 모델 없이 측정된 데이터를 이용하여 캘리브레이션을 수행하는 방법 및 상기 방법을 수행하는 3차원 스캐너 캘리브레이션 시스템
KR20180107916A (ko) 고정된 패턴 마스크를 이용하여 블랙, 화이트를 프로젝션을 수행하는 방법 및 시스템
KR20180107917A (ko) 서로 다른 편광에 대응하는 패턴 및 인버스 패턴을 이용하는 방법 및 장치
KR101746792B1 (ko) 회전 모듈과 거리 센서간의 위치 변환 관계 추정 방법 및 장치
KR20240086528A (ko) 포인트 클라우드 데이터의 오차를 예측하는 방법
Butail Motion reconstruction of animal groups: From schooling fish to swarming mosquitoes
KR101845253B1 (ko) 깊이 영상을 이용한 동작 추정 장치 및 방법
KR20170053509A (ko) 가정된 캘리브레이션 모델 없이 측정된 데이터를 이용하여 캘리브레이션을 수행하는 방법 및 상기 방법을 수행하는 3차원 스캐너 캘리브레이션 시스템

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150216

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160229

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160322

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160331

R150 Certificate of patent or registration of utility model

Ref document number: 5912191

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250