JP2007207251A - 現実の対象物の画像と重ね合わされるように設計されたデータモデルを決定するための方法及びシステム - Google Patents

現実の対象物の画像と重ね合わされるように設計されたデータモデルを決定するための方法及びシステム Download PDF

Info

Publication number
JP2007207251A
JP2007207251A JP2007023037A JP2007023037A JP2007207251A JP 2007207251 A JP2007207251 A JP 2007207251A JP 2007023037 A JP2007023037 A JP 2007023037A JP 2007023037 A JP2007023037 A JP 2007023037A JP 2007207251 A JP2007207251 A JP 2007207251A
Authority
JP
Japan
Prior art keywords
dimensional
edge
data model
determining
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007023037A
Other languages
English (en)
Other versions
JP4531069B2 (ja
Inventor
Platonov Juri
プラトノフ ユーリ
Langer Marion
ランガー マリオン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Metaio GmbH
Original Assignee
Metaio GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Metaio GmbH filed Critical Metaio GmbH
Publication of JP2007207251A publication Critical patent/JP2007207251A/ja
Application granted granted Critical
Publication of JP4531069B2 publication Critical patent/JP4531069B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/564Depth or shape recovery from multiple images from contours

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Abstract

【課題】対象物トラッキング過程において、現実の対象物の画像と重ね合わされるように設計されたデータモデルを決定するための方法及びシステムを提供する。
【解決手段】光学的な対象物トラッキング過程において、現実の対象物の画像と重ね合わせられるように設計されたデータモデルは、現実の対象物を表現するための3次元CADモデルを与え、その後3次元CADモデルの異なる合成2次元景観を生成する工程と、生成された各景観に対し、各景観において少なくとも1つの抽出されたエッジを決定するためにエッジ抽出を行ない、各景観から抽出されたエッジは決定されるべき前記データモデルに対応する3次元輪郭モデルに変換する工程とを具備する。
【選択図】図3

Description

本発明は、対象物トラッキング過程において、現実の対象物の画像と重ね合わされるように設計された仮想情報のデータモデルを決定するための方法及びシステムに関する。それに加えて、本発明は対象物をトラッキングする方法に関連しており、特に拡張現実感システム(augmented reality system)では、上記方法で決定されたデータモデルを利用する。さらに本発明は、本発明に従った方法を実行するためのソフトウェアコード区分から成るコンピュータプログラム製品に関連している。
拡張現実感システムによって、コンピュータによって生成された仮想情報を現実の環境の視覚的な印象と重ね合わせることが可能となった。拡張現実感システムでは、現実の世界の視覚的な印象は、例えばユーザの頭に着用された半伝播的なデータ眼鏡(semi−transmissive data glasses)によって、仮想情報と混合される。仮想情報或いは対象物の混合は、状況に依存した方式、すなわちそれぞれの環境に合わせた或いはそれぞれの環境から得られた方式によって果たされる。仮想情報としては、基本的には任意の形式のデータ(例えばテキスト、画像等)を用いることができる。現実の環境は、例えばユーザの頭に装着されたカメラを用いることよって検知される。
拡張現実感システムを利用している人が頭を回転させると、景観の背景の変化に伴って全ての仮想対象物のトラッキングが必要になる。現実の環境は複雑な仕掛けになっていて、検知された対象物がその仕掛けの重要な構成要素になっている可能性がある。システムのユーザのために、状況に依存した情報が現実の環境に関して望まれる位置でディスプレイ装置の中で混合される間、対象物トラッキング操作に適当な作用過程を提供する保証、所謂トラッキング操作中に、初期化中に検知された現実の対象物は、仮想情報がカメラによって撮影された画像或いは写真において、表示或いは混合される位置を計算するための基準として役立つ。ユーザの位置や向きが変化するため、現実の対象物はユーザの位置や向きが変化しても正しい位置に仮想情報を表示する為に、継続的なトラッキングを受ける必要がある。それによって、ユーザの位置や向きに関わらず、情報は現実に関して状況に応じた正しい方式で、ディスプレイ装置に表示される。この点で、拡張現実感システムは、所謂マーカレストラッキングシステムを利用した例である。
拡張現実感の分野における主要な問題の1つに、頭に装着されたビデオカメラによるユーザの頭の位置と向きの決定がある。この問題は、前述のように、情報源としてビデオカメラの一連のビデオ或いは画像だけを用いて、対象物の姿勢を決定することに関連した対象物トラッキングの問題に関連すると共に、対象物トラッキングの問題に変換される。
この問題を解決する為に、所謂輪郭に基づいた対象物のトラッキングとして知られている方法が、実際の応用において特に有望となっている。この方法では、トラッキングされるべき所謂現実対象物の輪郭モデルがビデオにおける画像と比較され、最適な一致が得られる(最適化)まで調整される。しかし、このような輪郭モデルを有効な方式で与える方法に関しては、既知の研究はほとんど無い。既知の輪郭に基づくトラッキングの方法では、このような輪郭モデルは、それぞれ現実の対象物を利用して手動で生成される。しかし、現実の対象物の像に重ね合わせられるように設計して仮想情報のデータモデルを手動で生成するのは、比較的複雑で多くの時間を要する。
上述に示される形式のデータモデルを決定するための方法とシステムにおいて、輪郭モデルを現実の対象物の画像に重ね合わせる為に設計されたデータモデルとして、迅速かつ効率的に生成することを可能にする方法とシステムを提供することが本発明の目的である。
本発明によると、現実の対象物の画像と重ね合わせるために設計されたデータモデルが、現実の対象物を表現するために3次元CADモデル(10)を作成する工程と、その後、前記3次元CADモデルの異なった合成2次元景観(view)を生成する工程と、生成された各景観(31〜34)に対して、各景観において抽出された少なくとも1つのエッジ(38、39)を決定するためにエッジの抽出を行なう工程と、前記各景観から抽出された前記エッジが決定されるべき前記データモデルに対応した3次元輪郭モデル(85、91)に変換される工程とで決定される。
これに関して、本発明は3次元輪郭モデルを、特に3次元CADモデルに基づいたマーカレス対象物トラッキング(markerless object tracking)における使用に対して、完全に自動的な方法で抽出できるという利点が得られる。従って、特に産業上の応用にとって興味深い技術を提供すると共に、データモデル生成のための半自動的或いは全自動的方法を提供することができる。
本発明の着想は、それぞれの現実の対象物を表現するための3次元CADモデルによって、トラッキングされるべき対象物のどのエッジが、その次の光学的な輪郭に基づくトラッキングに関連しているかを、その後エッジを3次元輪郭モデルに変換する為に決定することにある。本発明の概念では、エッジフィルタを利用して、多くの異なる景観から抽出されたエッジは重要であると確認された。トラッキングされるべき現実の対象物の関連する視覚的なエッジを決定するために、トラッキングされるべき対象物の異なる景観が擬似的にシミュレーションされる。このために、3次元CADモデルが使用される。現実対象物のビデオ画像の作成や使用の必要がなくなるので、この点で異なる景観の合成生成は、本発明の本質的な部分であると考えられる。これに加えて、異なる景観を生成する仮想カメラに関する完全な制御が行なわれる。
従って本発明によると、現実の対象物の画像に重ね合わされるように意図された輪郭モデルを作成する半自動的或いは全自動的な方法を提供することができるので、特に前述のようなシステムの産業上の利用が可能となる拡張現実感システムの分野に、特に本発明の技術的な概念は属する。それに加え、このようなデータモデルの手動生成と比較すると、拡張現実感システムが用いられる改良されたより厳密なトラッキング法を導くCADモデルを基に、より高い正確さが実現される。本発明の着想は、トラッキングされるべきどのエッジが、そのエッジを後から3次元輪郭モデルに変換するために、光学的な輪郭に基づくトラッキングに関連があるかを、CADモデルによって決定することにある。この考えは、光学的な輪郭に基づくトラッキングの実施に関する光学的で技術的な関係についての
知識に基づいて作られたもので、対応する技術的な成果に基づく評価は、固有的特徴の光学的で技術的な関連性によって、又これらが前述の技術的な問題を解くのにどのように寄与するかによってなされる。
従って、全体的には、本発明は輪郭に基づく光学的な対象物トラッキングの生成に対し、産業上の応用、そして日常の実用的な応用にとって興味深い方法を提供する。
本発明の概念によると、3次元CADモデルは光学的な輪郭に基づくトラッキングには直接用いられることはなく、むしろ3次元CADモデルの異なる合成2次元景観を生成する中間過程によって、トラッキングされるべき現実の対象物のどのエッジが光学的な輪郭に基づくトラッキング過程に関連しているかが決定される。それぞれの景観から抽出されるエッジは、光学的な輪郭に基づいたトラッキングに対するデータモデルとして使用できる3次元輪郭モデルに変換される。
本発明の実施形態によると、エッジ抽出の後、例えば抽出されたエッジのエッジ画素の形成において、各2次元エッジ点の抽出が行なわれる。抽出されたエッジを変換すると、各エッジ点の3次元位置がCADモデルを利用して決定され、3次元輪郭モデルを決定するための1組の3次元点が得られる。ここで、それぞれのエッジ点は画像平面上で2次元点として解釈或いは検知され、エッジ点のCADモデルの座標系における3次元位置が決定される。
更に、本発明の実施形態によると、エッジ点の3次元位置は、3次元点の空間的な近傍を調査できるデータ構造に格納される。このデータ構造は、特にk−d木(k−d tree)の形式になっている。
エッジ点の3次元位置の決定において、3次元点が既にこの3次元位置に存在していることを確認するとき、本発明の実施形態では、3次元点の計数値の増加が行なわれる。作業はこの方式で進行する。例えば、所望の数の合成景観が生成され、加工される。その結果、3次元点集団が得られ、それぞれの3次元点は、その点がある視覚的エッジに属するとして評価された回数を示すのに関連する値を保持している。この値は、それぞれの3次元点が視覚的なエッジに属する確率として解釈される。
意味上(semantically)空間的に同じ3次元位置に属するエッジ点は、1つの3次元点に格納され、それぞれのエッジ点がこの3次元位置に配置されると、対応する計数値は増加、即ち関連する確率の値が増加する。
特にエッジ点が意味上同じ3次元位置に属するという事実を認識する為に、それぞれのエッジ点に対して同じ3次元位置の決定後に調査が開始され、前記調査では、極近傍に格納されている3次元点が、少なくとも1つは存在するかどうかが決定される。極近傍であるかどうかは、閾値によって定義される。極近傍に少なくとも1つの3次元点が格納されている場合、新たに3次元点が格納されることはなく、既に格納されている3次元点の計数値が増加される。
視覚的な関連性に関して決定された確率分布が得られると、関連する確率が閾値以下である3次元点を廃棄し、残りの3次元点で現実の対象物の視覚的に関連する輪郭が表現される。特に1組の3次元点は、高い確率で拡張現実感システムにおけるトラッキング過程に対して、現実の対象物の関連する輪郭を表現する領域となる。ここで、特定の閾値以下の確率、即ち計数値を保持した3次元点は、廃棄される。
本発明の更なる実施形態によると、1組の3次元点は、3次元点のユークリディアン最小全域木(Euclidean minimum spanning tree)を決定するアルゴリズムを用いて、連結された輪郭区分に分割される。
特に輪郭区分の3次元点の少なくとも一部は、例えば線、Bスプライン、ベジール(Bezier)スプライン、NURBSを利用した最適化法による近似によって、適当な輪郭表現に置き換えられる。曲線状の輪郭区分の代わりに、Bスプラインを用いた最適化法が利用される。
本発明の方法に従って3次元輪郭モデルを決定した後、光学的な対象物トラッキング法がこのような輪郭モデルを用いて実行される。この点で、輪郭モデルは、仮想情報のデータモデルとして、画像平面上に重ね合わされた現実対象物の画像を保持している。このために、カメラによって少なくとも現実対象物を含む画像或いは写真を撮影する。更に、データモデルを画像平面に投影する為の最適化法は、データモデルの投影において画像平面上に現実の対象物の画像を重ね合わせる為に実行される。
トラッキング操作の間、特にデータモデルの投影と現実対象物の画像の間の比較が実行され、その比較結果に基づいてカメラの姿勢が決定される。従って、その情報は、仮想情報がカメラによって撮影される画像に表示、或いは混合される位置を計算する基準として役立つ。現実の対象物の連続的なトラッキングは、ユーザやカメラの位置や向きが変わるときに実行される。現実の対象物に関して、カメラの位置や向きを決定するためのカメラパラメータを決定した後、技術的なデータモデルの輪郭を描く為のパラメータ値が、内部的なコンピュータモデルが物理的な世界に対応するように定義される。
更に本発明は、本発明の原理に従うように設計されたデータモデルを決定するための対応するシステムと関連している。このようなシステムは、特に3次元CADモデルを与える手段と、CADモデルの合成2次元景観を生成するための手段とで成っている。この手段は、それぞれの景観において少なくとも1つの抽出された景観を決定する為に、それぞれの生成された景観のエッジ抽出を行なう為に設計される。更に、各景観から抽出されたエッジを3次元輪郭モデルに変換する為の手段が提供される。このような手段は、本発明に従った方法の工程が記述された方式で実施されるように適合された一般的なコンピュータシステムの形式で実現される。
本発明に従った方法は、例えば、メモリ媒体内の、デジタルコンピュータの内部メモリにロードされるコンピュータプログラム製品において実施される。このようなコンピュータプログラム製品はソフトウェアコード区分から成り、それによって本発明に従う固有のの方法工程が、製品がコンピュータ上で実行されている際に実行される。
本発明は、トラッキングシステムやトラッキング方法を利用する多くの分野の応用において利用されると考えられる。考えられる応用は、サービスやメンテナンス、動的環境における一般的な応用と同様に生産環境における応用の分野における拡張現実感技術である。特に本発明は産業生産分野において利用され、そこでは産業ロボットのような産業機械が、撮影された現実環境に関して自動的に制御或いは統制される。
本発明の更なる実施形態は、特許請求の範囲の従属項において示される。
本発明によれば、対象物トラッキング過程において、現実の対象物の画像と重ね合わされるように設計されたデータモデルを決定するための方法及びシステムにおいて、現実の対象物の画像に重ね合わせる為に設計されたデータモデルとして、輪郭モデルを迅速に効率的に生成することを可能にする方法とシステムを提供することができる。本発明は3次元輪郭モデルを、特に3次元CADモデルに基づいたマーカレス対象物トラッキングにおける使用に対して、完全に自動的な方法で抽出できるという利点がある。従って、特に産業上の応用にとって興味深い技術を提供し、データモデル生成のための半自動的或いは全自動的方法を提供することができる。
本発明によると、トラッキングされるべき現実の対象物のどのエッジが、視覚的な輪郭に基づくトラッキング法において重要であるかが、これらエッジから3次元の輪郭モデルに変換するために、3次元のCADの支援によって決定される。例えばソベル(Sobel)或いはキャニイ(Canny)によると、エッジフィルタ(edge filter)によって、できるだけ多くの景観の画像から抽出されるエッジは、この決定過程において重要である。図1はカメラによって撮影された現実の対象物に属する視覚的なエッジの景観を示しており、これらエッジはエッジフィルタによって抽出されたものである。特にこの場合、エッジはキャニイエッジフィルタによって抽出されたものである。抽出されたエッジは、現実の対象物で、それぞれライト/ダークとダーク/ライトの間の遷移を示す白線で示されている。図1に示される景観20には、典型的な視覚的エッジに符号21〜23が付けられている。
3次元の輪郭モデルを作成するのに関係のある視覚的なエッジを決定するために、本発明はトラッキングするべき現実の対象物のさまざまな景観の合成シミュレーションを利用する。このため、具体的な実施例として、図2に例示されるように3次元CADモデルが使用される。図2は、車のエンジンの部分を表現する典型的な3次元CADモデル10を示している。本発明によると、異なる景観の合成生成によって、視覚的なトラッキング過程の為に3次元輪郭モデルを手動で生成するのに、現実の対象物のビデオ画像を使用する必要性は無くなる。合成景観の生成の為に、3次元CADモデルはできるだけ正確に現実の対象物を表現する。粗い3次元CADモデルの使用は十分な量の輪郭から得るのに有利であるが、これは複雑な形状には適当ではない。相対的に複雑な形状は、例えば図2のような3次元CADモデルによって与えられる。
図3は、本発明による方法の実施形態に関するフローチャートである。図3については、以下に図4〜図9を関連付けてより詳細に説明する。
図4は、3次元CADモデルの異なった合成2次元景観の生成を模式的に表したものである。図3のステップS101では、まず仮想カメラの姿勢が、例えば図4のカメラ41のように選択される。姿勢1では、仮想カメラ41はCADモデル10の2次元景観31を生成する。姿勢2では、仮想カメラ42はCADモデル10の2次元景観32を生成する。これに対応して、CADモデル10の2次元景観33及び34は、それぞれ仮想カメラ43及び44の姿勢3及び4において生成される。仮想カメラのそれぞれの位置付けは、ユーザによって定義された範囲で均一に、或いはそれに優先するある確率分布に従ってなされる。このような確率分布の使用については、以下により詳細に説明する。
このような方式で合成生成された景観31〜34に対してそれぞれエッジの抽出が行なわれる。エッジの抽出には、既知のソベル或いはキャニイのエッジフィルタが用いられると考えられる。後でトラッキング中に使用するのと同じエッジ抽出装置を使用することが薦められる。図5には、キャニイエッジ検知装置を使用して、図2のCADモデルの合成景観から抽出されたエッジを示している。抽出されたエッジは、黒い背景上で白く表されている。
対象物に視覚的に関連したエッジを決定するために、可能な限り粗いCADモデルが異なる景観(例えば1000以上の景観が生成される)から繰り返し描写(レンダリング)される。ここで技術用語「レンダリング」は、仮想の3次元データモデルの画像を生成する過程を記述するものである。異なる景観の数は、ステップS106で調べられて定義される。即ち、ステップS101〜S105は、新たに生成される各景観に対して連続的に実行される。
ステップS102で生成される2次元景観は、現実の対象物に可能な限り類似したものである。景観の中で光源の条件、特に光源の向きが視覚的なエッジにおいて重要な効果を持っているため、異なる光源の状況でシミュレーションを行なうのが特に有効である。従って、写実的レンダリング(photo−realistic rendering)を利用するのが有効になる。
ステップS103で、3次元CADモデルの写実的レンダリングをした景観の2次元のエッジ(2Dエッジ)がエッジ抽出法(例えばソベルやキャニイによる標準的な方法)によって抽出され、2値画像の形式でさらなる工程で利用できるようになる。この過程において、抽出されたエッジは画像中で白く表され、それ以外の画素は黒く表される。この図は景観30として図5に例示され、そこでは視覚的に抽出されたエッジは、38及び39で示されている。例えばエッジ38は、白で表されるエッジ画素37の多様性を構成している。
エッジ抽出の後、画像中で白く表される各エッジ画素は、2次元の点(2D点)として検知され、この2D点のCADモデルの座標系の3次元位置(3D位置)(図6の11で示されている)が決定される。関連したエッジの輪郭を決定するには、各2Dエッジ画素に対して、それに対応する3D位置を計算する必要がある。図6は、各2Dエッジ画素に対して、どの3D位置が決定されるかについての方法を模式的に視覚化したものである。これに関して仮想カメラは基準位置40を保持し、このCADモデル10から図5に例示される2次元景観30を生成する。
更に本実施形態では、カラーコーディングされたモデル50を利用する。このために、CADモデル10の写実的景観(例えば、図4の景観31〜34)に対して、CADモデルの各面に明確な色が割り当てられた合成カラー景観がレンダリングされる。例えば、面は3次元空間上の点と、これらの点の連結によって対象物の表面を記述する多角形モデルの3角形で表される。各エッジ画素は、合成カラー画像における対応する2D位置のカラー値を検索し、この値を3次元CADモデルの対応する面(3角形)に効率的にアクセスするための指標として用いる。この3角形は、3次元空間上の平面に広がっている。2Dエッジ画素の求める3D位置70は、カメラ40の中心と各2次元画素を結ぶ直線(例えば直線61、62)と、3次元上の平面との交点である。CADモデルの面のカラーコーディングにおいて、配置されたCADモデルの色はCADモデルのカラーコードに対応する位置で交差する点だけ必要であり、3次元CADモデルのそれ以外の面との交差については必要ない。
このようにして決定されたエッジ画素の3D位置は、3D点の空間的近傍に関して効率よく調査できるデータ構造に格納される(例えばk−d木によって)。図6に例示される2Dエッジの3次元空間への再投影が、図3のステップS104で実行される。
特にこの場合、2次元エッジは視覚できる関連するエッジを表現するので、いくつかの景観(例えば図4の景観31〜34)で視覚可能であると考えられる。これは、異なる景観における2次元画素に、同じ3D位置が割り当てられる可能性があることを意味する。空間上で同じ3次元投影に意味上属するエッジ画素は、3D位置に配置された各エッジ画素に対応するカウンタの値を増加させる(図3のステップS105)という効果を保持させた状態で、1つの3D点として格納される。言い換えると、エッジ画素の3D位置の決定後、3D点が既に3D位置に存在することが示されると、カウンタの計数値が3D点について増加される。
数値的な不正確さのため、3D位置はおそらく厳密には同一ではなく、お互いに少しずつずれている。1つの画素が同じ3D位置に意味上属することを認識する為に、各2Dエッジ画素に対して、その3D位置の決定の後、その極近傍に既に格納されている3D点が存在するかどうかについて調査を開始する必要がある。もし極近傍に3D点が存在するなら、新たに3D点は格納されず、むしろ既に存在する3D点の計数値が増加される。“極近傍”は閾値によって定義される。このような調査の効率的な実現を可能にするデータ構造は、前述のk−d木である。
この方式で、所望の数の合成景観が生成され処理されるまで、図3のステップS101〜S104へ進む。この工程の結果が3D点の集合となり、それぞれの3D点はその点が1つの視覚的なエッジに属するとして評価された回数を示す値を保持している。この値は、それぞれの3次元位置が関連する視覚的なエッジに属する確率として解釈できるとものである。従って、CADモデルの表面上での視覚的な関連性について確率分布が形成される。関連する視覚的エッジに属する確率が閾値よりも低い3D点は、廃棄或いは拒絶される。残りの3D点は、トラッキングされるべき現実の対象物の視覚的に関連する輪郭を表現する。
合成景観が生成され、対応する3D位置がすべての2Dエッジ画素に対して決定された後、生成された3D点の集合は、高い確率で特にトラッキングのために関連する輪郭を表現する領域となる。この作業は、特定の閾値より低い計数値(確率)を持った全ての3D点が廃棄される(図3のステップS107)簡単な閾値法によって実行される。
点の形式で関連する3次元輪郭を表現する3次元点の集合の生成において、この点集合は個々の輪郭区分に分割される。図7は、3D点70を含む簡単な3次元点集合の個々の輪郭区分71〜75への可能な区分の例を示している。このような輪郭区分は、輪郭の簡潔な表現を可能にするため線、Bスプライン或いはNURBSを用いた最適化法(例えば、レーベンベルク(Levenberg)−マルカート(Marquardt))を使用して近似されることが考えられる。言い換えると、3次元点集合が個々の輪郭区分に分割されると、これらは対応する輪郭表現に置き換えられる。二つの可能な輪郭表現が図8及び図9に例示されている。図8は線を用いて3次元輪郭区分の可能な近似を行なった例であり、図9はBスプラインを用いて3次元輪郭区分の可能な近似を行なった例である。例えばベジールスプラインやNURBS等、これ以外の表現でも輪郭区分の近似が可能である。
図8に示されるように、輪郭区分は、必要な正確さが得られるまで一続きの線区分81〜85を用いていくつかの3次元点70から近似されると考えられる。従って、決定された輪郭区分は、輪郭モデルの一部を表現すると考えられる。図9に示されるように、Bスプラインによってより大きな1組のデータを近似することが可能になる。こういう訳で、これらは輪郭区分を記述するのに大変適している。図9に示されるように、Bスプラインは、特に曲線の輪郭区分に関して、1組の制御点92によって簡潔な表現で点集合の厳密な近似が可能になる。輪郭区分の同一化や線やBスプライン等による輪郭区分の近似は、図3のステップS108やS109で実行される。例えばBスプライン91のように、このようにして決定された輪郭区分は、輪郭モデルの一部を表現すると考えられる。
以下では、輪郭区分を特定する実施形態が記述されており、これは図3のステップS108で実施される。
言及したように、点集合の選別は、相対的な閾値(最大のヒット比(hit ratio)に依存する)以上の3Dエッジ点だけを含む選別された点集合(FPC)を与える。このFPCは以下のような異なった領域(部分点集合)から成る。
(a)1つのエッジだけの分布にはならない、大きな分布を持った点から成る領域。
(b)大変近接した幾つかのエッジに分布した点から成る領域。
(c)1つのエッジに分布した点から成る領域(理想的な状況)。

初期状況の付加的な性質は、以下のようになる。
(a)1つのエッジを構成する点は連続的に1つの線上に分布するのではなく、理想的な
エッジの周りに分布し、理想的なエッジに対して誤差(noise)を持った状態
で分布する。
(b)エッジの誤差は異なった大きさを持つ。即ち、理想のエッジから点までの直交距離
は変化する。エッジ生成のために点の位置の平均化を行なう場合、半径はエッジに
関連する全ての点を含むように十分大きく、又同時に近傍の異なるエッジの点を含
まないようにできるだけ小さくする必要がある。半径は可変である必要がある。

これに関して、点集合全体の中のこのような点について、エッジ形成とその次の工程のどれを、エッジを形成するために近似するか決定するという問題が生じる。

この初期状況を基礎として、前述にあるように特に2つの問題が生じる。
(a)近接した位置にあるエッジ。この場合、点集合の点は対応する領域で互いに近接し
ており、異なったエッジに関連付ける必要がある。これは図10に示され、そこで
は互いに近接した位置にある典型的なエッジの選別された点集合200が例示され
ている。
(b)誤差の大きさの変動。即ち、点の理想のエッジからの直交距離が変動することが考
えられる。

これに関する解決法としては、所謂ユークリディアン最小全域木(EMST)を利用したアルゴリズムが好適に用いられる。
点集合のEMSTを決定するには、点間の距離がエッジの許容できる最大の誤差r_max以下である全ての点を互いに連結する曲線Gが決定される。曲線GのEMSTは、エッジの長さの和が最小になるように曲線の全ての点を相互に連結する木(tree)(従って循環することは無い)である。
EMSTを決定するために好適に用いられるアルゴリズムに、クルスカル(Kruskal)によるアルゴリズムがある。クルスカルのアルゴリズムは、曲線が完全に繋がっていない場合に最小全域フォレスト(minimum spanning forest)を生成するという性質を持っている。誤差r_maxによって選別された点集合から生成された曲線が完全には繋がっていないという性質は、高い確率を持っているので重要である。クルスカルのアルゴリズムの代わりになるものとして、プリム(Prim)によるアルゴリズムがあり、このアルゴリズムでは、曲線Gが完全には繋がっていない場合、1つの繋がった曲線から成る全域木(spanning tree)を生成する。
クルスカルのアルゴリズムは特に以下の工程を利用する。
(a)フォレスト(forest) F(1組の木)の生成。フォレスト Fではそれぞ
れの点はまず分離した木を構成する。
(b)曲線Gの全てのエッジを含むセットSの生成。
(c)セットSが何も含まないことがない限り、
− セットSから最も低い重みを持ったエッジ(例えば最短のエッジ)を取り除
く。
− そのエッジが2つの木を連結する場合、1つの木を形成するた
めに2つの木とそのエッジを加える。
− それ以外の場合は、そのエッジは廃棄する。

このようにして形成された木が求めるEMSTであり、その例が図11のEMST201に示される。そこでは近接した位置にあるエッジの選別された点集合から以前に決定された幾つかの点を連結している。ここでEMST201は、エッジ213と214に連結される二つの隣接したエッジ211と212のEMSTを表現する。EMSTは点の所属を決定する。
近接位置に隣り合ったエッジやEMSTは、図12にエッジ211と212を繋ぐ連結220によって典型的に示されるように、少なくとも一箇所で互いに繋がる。これらの連結は決定され、消去される必要がある。これらは間違った連結を構成している。このため、それぞれのエッジに対して分離したEMSTが得られる。これは、図13にエッジ211と212に対する分離したEMST202と203の形で例示される。
それから分離したEMSTは、例えばそれぞれの部分木内の重心を決定することによって平均化されると考えられる。例えば図13の205のように決定された点は、前述(図3のステップS103)に記述されるように輪郭区分を形成するように近似できる。
図4に関して前述に触れたように、仮想カメラの位置付けは、均一に、或いは確率分布に従って配置することが考えられる。ここで確率分布は、例えばエンジンのどの部分の景観が修理作業の観点から重要であるかが考慮されると考えられる。この方式で、現実における確率分布を生成することができる。このような確率分布は、例えばエッジの重みに影響を及ぼす。例えば、より重要な位置からの視覚的なエッジは、現実の観点から重要度の低い景観における視覚的なエッジよりも高い重みが付けられる。
輪郭モデルの完全に自動的な生成から成る本発明は有益に実行可能で、特に輪郭に基づく対象物トラッキング方法の産業上の応用にとって好都合である。この点で本発明は、重工業において頻繁に用いられるCADモデルの包括的なデータベースと、マーカレス対象物トラッキングのための輪郭に基づくアルゴリズムの間の隔たりを埋めることになる。
撮影された対象物に属する、エッジフィルタによって抽出された視覚的なエッジの景観を示す図である。 自動車のエンジン区分に対応する現実の対象物を表現する3次元CADモデルを示す図である。 本発明による方法の実施形態のフローチャートを示す図である。 CADモデルの異なる合成2次元景観の生成を視覚的に示す模式的な図である。 合成景観から抽出された典型的な2次元エッジを示す図である。 関連する3次元位置を2次元エッジ画素に対して決定する際の方法工程を視覚的に表した模式図である。 簡易な3次元点集合の個々の輪郭区分への可能な分割例を示す図である。 直線或いは曲線を用いて3次元輪郭区分の可能な近似例を示す図である。 Bスプラインを使用して3次元輪郭区分の可能な近似例を示す図である。 近接位置にあるエッジに関連した輪郭区分の同一化を、1つ或いはそれ以上のユークリディアン最小全域木を使用して示す図である。 近接位置にあるエッジに関連した輪郭区分の同一化を、1つ或いはそれ以上のユークリディアン最小全域木を使用して示す図である。 近接位置にあるエッジに関連した輪郭区分の同一化を、1つ或いはそれ以上のユークリディアン最小全域木を使用して示す図である。 近接位置にあるエッジに関連した輪郭区分の同一化を、1つ或いはそれ以上のユークリディアン最小全域木を使用して示す図である。
符号の説明
10 3次元3次元CADモデル
20、30、31〜34 3次元CADモデル10の2次元景観
21、23、23 視覚的なエッジ
1、2、3、4 カメラの姿勢
40〜44 仮想カメラ
37 エッジ画素
38、39 視覚的に抽出されたエッジ
50 カラーコーディングモデル
70 2次元エッジ画素の3次元位置
71〜75 輪郭区分
81〜85 線区分
91 Bスプライン
92 制御点
200 選別された点集合
201,202,203 EMST
205 木の重心
211〜214 エッジ
220 エッジ211と212を繋ぐ連結

Claims (21)

  1. 対象物トラッキング過程において、現実の対象物の画像と重ね合わされるように設計された仮想情報のデータモデルを決定するための方法であって、
    (a)前記現実の対象物を表現するために3次元CADモデル(10)を作成する工程と、
    (b)前記3次元CADモデル(10)の異なった合成2次元景観(31〜34)を生成する工程と、
    (c)前記生成された各景観(31〜34)に対して、前記各景観において抽出された少なくとも1つのエッジ(38、39)を決定するためにエッジ抽出を行なう工程と、
    (d)前記各景観(31〜34)から抽出された前記エッジ(38、39)を前記データモデルに対応した3次元輪郭モデル(85、91)に変換する工程と、
    を具備したことを特徴とする仮想情報のデータモデルを決定する方法。
  2. (a)前記エッジ抽出に続いて、抽出されたエッジ(38、39)の2次元エッジ点(37)を決定する工程と、
    (b)前記抽出されたエッジ(38、39)において、前記3次元CADモデル(10)を使用して前記各エッジ点(37)の3次元における位置を決定し、前記3次元輪郭モデル(85、91)が決定される1組の3次元点(70)を得る工程と、
    を具備している請求項1に記載の仮想情報のデータモデルを決定する方法。
  3. 前記各エッジ点(37)は画像平面上で2次元点として検知され、前記エッジ点の3次元における位置(70)は、前記3次元CADモデル(10)の座標系(11)において決定される請求項2に記載の仮想情報のデータモデルを決定する方法。
  4. 前記エッジ点から得られた3次元位置(70)は、3次元点の空間的近接位置を調査することができるデータ構造に格納され、前記データ構造は特にk−d木の形式である請求項2又は3に記載の仮想情報のデータモデルを決定する方法。
  5. 前記エッジ点の3次元位置(70)の決定後、前記3次元位置に既に3次元点(70)が存在することを確認する際に、前記3次元点に対する計数値を増加させるようになっている請求項2乃至4のいずれかに記載の仮想情報のデータモデルを決定する方法。
  6. 空間上の同じ3次元位置に属するエッジ点(37)が一つの3次元点(70)として格納され、前記3次元位置にエッジ点が配置されると計数値を増加させるようになっている請求項2乃至5のいずれかに記載の仮想情報のデータモデルを決定する方法。
  7. (a)同じ3次元上の位置に属するエッジ点を認識する為に、前記エッジ点の3次元位置の決定の後、前記各エッジ点(37)に対して、前記エッジ点の極近傍に3次元点(70)が少なくとも一つ格納されているかどうかについての検証を開始する工程と、
    (b)前記エッジ点の極近傍に3次元点(70)が少なくとも一つ格納されている場合、新たな3次元点は格納せず、前記すでに格納されている3次元点(70)の計数値を増加させる工程と、
    (c)前記極近傍を閾値によって決定する工程と、
    を更に具備している請求項6に記載の仮想情報のデータモデルを決定する方法。
  8. 前記3次元点が1つの視覚的なエッジ(38、39)に属するとして評価された回数を示す値を、前記3次元点(70)のそれぞれが保持している請求項2乃至7のいずれかに記載の仮想情報のデータモデルを決定する方法。
  9. (a)閾値を利用して、前記閾値以下の関連する値を保持する3次元点(70)を廃棄する工程と、
    (b)残りの3次元点(70)について、前記現実の対象物に視覚的に関連した輪郭を表現する工程と、
    を更に具備している請求項8に記載の仮想情報のデータモデルを決定する方法。
  10. (a)1組の3次元点(70)を、拡張現実感システムにおいて次に続くトラッキング法に対して、高い確率で前記現実の対象物の輪郭を表現する部分とする工程と、
    (b)閾値法は、特定の閾値以下の関連する確率或いは関連する計数値を保持するどの3次元点(70)を廃棄するかに関して使用する工程と、
    を更に具備している請求項2乃至9のいずれかに記載の仮想情報のデータモデルを決定する方法。
  11. 前記1組の3次元点(70)が、結合された輪郭区分(71〜75)に分割されるようになっている請求項2乃至10のいずれかに記載の仮想情報のデータモデルを決定する方法。
  12. 前記1組の3次元点(70)を結合された輪郭区分(71〜75)に分割するために、前記3次元点のユークリディアン最小全域木(Eucidean minimum spanning tree)を決定する方法を採用したアルゴリズムが使用されるようになっている請求項11に記載の仮想情報のデータモデルを決定する方法。
  13. 点集合(200)の前記ユークリディアン最小全域木(201)を決定するために、最初に前記点集合の内、互いの距離が最大許容誤差r_max以下である全ての点を相互に連結する曲線が形成されるようになっている請求項12に記載の仮想情報のデータモデルを決定する方法。
  14. 前記曲線Gの前記ユークリディアン最小全域木として、エッジの長さの総和が最小になるように前記曲線Gの全ての点を連結する木(201)が決定されるようになっている請求項13に記載の仮想情報のデータモデルを決定する方法。
  15. 前記輪郭区分内の前記3次元点(70)の少なくとも一部が、特に曲線、Bスプライン、ベジールスプライン或いはNURBSを用いて近似される適当な輪郭表現(81〜85;91)によって置き換えられる請求項11乃至14のいずれかに記載の仮想情報のデータモデルを決定する方法。
  16. 前記3次元CADモデルの異なる合成2次元景観(31〜34)を生成する際に、異なる光源の状況でシミュレーションを行なう請求項1乃至15のいずれかに記載の仮想情報のデータモデルを決定する方法。
  17. 前記3次元CADモデル(10)の各2次元景観(31〜34)に対して、各面に明確な色を割り当ててある個々の面を保持した合成カラー景観(50)を生成し、同じ2次元位置における各エッジ点に対して、カラー値を前記合成カラー画像から回復し、前記決定されたカラー値は前記3次元CADモデル(10)の対応する面にアクセスするための指標として用いられ、前記3次元CADモデルの各面は3次元空間上の平面に広がっており、2次元エッジ点が決定されるべき3次元位置(70)は、前記3次元CADモデル(10)の前記対応する面の前記平面と、仮想カメラ(40)の中心と、前記各2次元エッジ点を結ぶ直線との交点である請求項1乃至16のいずれかに記載の仮想情報のデータモデルを決定する方法。
  18. 画像平面上の現実の対象物の画像と重ね合わされ、仮想情報のデータモデルを利用する対象物トラッキング方法が、
    (a)請求項1乃至17のいずれかの特徴に従って前記データモデルを作成する工程と、
    (b)少なくとも前記現実の対象物を含むようにカメラを用いて2次元画像を撮影する工程、
    (c)前記データモデルの投影を前記画像平面上の前記現実の対象物の画像と重ね合わせるために、前記データモデルを前記画像平面に投影する最適化法を実行する工程と、
    を具備したことを特徴とする対象物トラッキング方法。
  19. (a)前記データモデルの投影を前記現実の対象物の画像と比較する工程と、
    (b)前記比較の結果を基にして前記カメラの姿勢に関するパラメータを決定する工程と、
    を更に具備している請求項18に記載の対象物トラッキング方法。
  20. 拡張現実感システムによって現実の対象物の画像と重ね合わされるように設計された仮想情報のデータモデルを決定するためのシステムであって、
    (a)前記現実の対象物を表現するために3次元CADモデル(10)を作成する手段と、
    (b)前記3次元CADモデル(10)の異なった合成2次元景観(31〜34)を生成すると共に、前記各景観(31〜34)に対して少なくとも1つの抽出された各エッジ(38、39)を決定するためにエッジの抽出を行なう手段と、
    (d)前記各景観(31〜34)から抽出された前記エッジ(38、39)を前記データモデルに対応する3次元輪郭モデル(85、91)に変換する手段と、
    を具備したことを特徴とする仮想情報のデータモデルを決定するシステム。
  21. デジタルコンピュータの内部メモリにロードされるように適用されるコンピュータプログラム製品であって、前記コンピュータプログラム製品は前記コンピュータ上で実行される時に請求項1乃至17のいずれかに従う工程が実行される際に用いられるソフトウェアコード区分から成ることを特徴とするコンピュータプログラム製品。
JP2007023037A 2006-02-03 2007-02-01 現実の対象物の画像と重ね合わされるように設計されたデータモデルを決定するための方法及びシステム Active JP4531069B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102006005044A DE102006005044B4 (de) 2006-02-03 2006-02-03 Verfahren und System zur Bestimmung eines Datenmodells zur Überlagerung mit einem realen Objekt in einem Verfahren zur Objektverfolgung
DE102006055893A DE102006055893A1 (de) 2006-02-03 2006-11-27 Verfahren und System zur Bestimmung eines Datenmodells zur Überlagerung mit einem realen Objekt in einem Verfahren zur Objektverfolgung

Publications (2)

Publication Number Publication Date
JP2007207251A true JP2007207251A (ja) 2007-08-16
JP4531069B2 JP4531069B2 (ja) 2010-08-25

Family

ID=38333585

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007023037A Active JP4531069B2 (ja) 2006-02-03 2007-02-01 現実の対象物の画像と重ね合わされるように設計されたデータモデルを決定するための方法及びシステム

Country Status (3)

Country Link
US (1) US7889193B2 (ja)
JP (1) JP4531069B2 (ja)
DE (2) DE102006005044B4 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2169627A2 (en) 2008-09-24 2010-03-31 Canon Kabushiki Kaisha Model generation apparatus and method
JP2011510421A (ja) * 2008-01-23 2011-03-31 トップコン ジーピーエス,エルエルシー 重複ポリトープを介した幾何学的要素による点の順序集合の近似
JP2011163866A (ja) * 2010-02-08 2011-08-25 Nippon Telegr & Teleph Corp <Ntt> コンクリート画像抽出方法
US8520931B2 (en) 2008-09-24 2013-08-27 Canon Kabushiki Kaisha Position and orientation measurement apparatus and method thereof
JP2015084229A (ja) * 2009-10-19 2015-04-30 メタイオ ゲゼルシャフト ミット ベシュレンクテル ハフツングmetaio GmbH カメラ姿勢決定方法、及び実環境物体認識方法
WO2019107150A1 (ja) * 2017-11-30 2019-06-06 株式会社ニコン 検出装置、処理装置、装着物、検出方法、及び検出プログラム
US10739142B2 (en) 2016-09-02 2020-08-11 Apple Inc. System for determining position both indoor and outdoor
US11176661B2 (en) 2018-10-30 2021-11-16 Fujitsu Limited Image processing apparatus and image processing method

Families Citing this family (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7680324B2 (en) 2000-11-06 2010-03-16 Evryx Technologies, Inc. Use of image-derived information as search criteria for internet and other search engines
US7899243B2 (en) 2000-11-06 2011-03-01 Evryx Technologies, Inc. Image capture and identification system and process
US8224078B2 (en) 2000-11-06 2012-07-17 Nant Holdings Ip, Llc Image capture and identification system and process
US9310892B2 (en) 2000-11-06 2016-04-12 Nant Holdings Ip, Llc Object information derived from object images
US8218873B2 (en) 2000-11-06 2012-07-10 Nant Holdings Ip, Llc Object information derived from object images
US7565008B2 (en) 2000-11-06 2009-07-21 Evryx Technologies, Inc. Data capture and identification system and process
US8094090B2 (en) * 2007-10-19 2012-01-10 Southwest Research Institute Real-time self-visualization system
JP4557041B2 (ja) * 2008-04-18 2010-10-06 株式会社デンソー 車両用画像処理装置
US8346017B2 (en) * 2008-04-30 2013-01-01 Microsoft Corporation Intermediate point between images to insert/overlay ads
FR2933218B1 (fr) * 2008-06-30 2011-02-11 Total Immersion Procede et dispositif permettant de detecter en temps reel des interactions entre un utilisateur et une scene de realite augmentee
KR20150008840A (ko) 2010-02-24 2015-01-23 아이피플렉 홀딩스 코포레이션 시각 장애인들을 지원하는 증강 현실 파노라마
US8810598B2 (en) 2011-04-08 2014-08-19 Nant Holdings Ip, Llc Interference based augmented reality hosting platforms
US9208571B2 (en) 2011-06-06 2015-12-08 Microsoft Technology Licensing, Llc Object digitization
DE102012014995A1 (de) 2012-07-28 2014-01-30 Volkswagen Aktiengesellschaft Verfahren zum Betrieb eines Augmented-Reality-Systems
CN103020342B (zh) * 2012-12-04 2015-07-15 南京大学 一种从地面LiDAR数据中提取建筑物轮廓和角点的方法
DE102012113009A1 (de) * 2012-12-21 2014-06-26 Jenoptik Robot Gmbh Verfahren zum automatischen Klassifizieren von sich bewegenden Fahrzeugen
CN103453851B (zh) * 2013-09-18 2017-01-04 沈阳飞机工业(集团)有限公司 一种模胎上零件外形轮廓线的检测方法
US9582516B2 (en) 2013-10-17 2017-02-28 Nant Holdings Ip, Llc Wide area augmented reality location-based services
US9530250B2 (en) * 2013-12-10 2016-12-27 Dassault Systemes Augmented reality updating of 3D CAD models
CN103903280B (zh) * 2014-03-28 2017-01-11 哈尔滨工程大学 一种改进水平集目标提取的子块权重Mean-Shift跟踪方法
US20150324646A1 (en) * 2014-05-08 2015-11-12 Brown University Navigation methods and apparatus for the visually impaired
DE102014217718B4 (de) 2014-09-04 2021-12-02 Volkswagen Aktiengesellschaft Verfahren zum Betrieb eines Augmented-Reality-Systems
US9746913B2 (en) 2014-10-31 2017-08-29 The United States Of America As Represented By The Secretary Of The Navy Secured mobile maintenance and operator system including wearable augmented reality interface, voice command interface, and visual recognition systems and related methods
US10142596B2 (en) 2015-02-27 2018-11-27 The United States Of America, As Represented By The Secretary Of The Navy Method and apparatus of secured interactive remote maintenance assist
JP2016173703A (ja) * 2015-03-17 2016-09-29 株式会社ミツトヨ タッチディスプレイを用いた入力操作を支援する方法
CN106144861B (zh) 2015-04-03 2020-07-24 奥的斯电梯公司 用于乘客运输控制的基于深度传感器的乘客感测
CN106144795B (zh) 2015-04-03 2020-01-31 奥的斯电梯公司 通过识别用户操作用于乘客运输控制和安全的***和方法
CN106144801B (zh) 2015-04-03 2021-05-18 奥的斯电梯公司 用于特殊乘客运输工具负载状况的基于深度传感器的感测
CN106144862B (zh) 2015-04-03 2020-04-10 奥的斯电梯公司 用于乘客运输门控制的基于深度传感器的乘客感测
CN106144797B (zh) * 2015-04-03 2020-11-27 奥的斯电梯公司 用于乘客运输的通行列表产生
DE102015215613A1 (de) 2015-08-17 2017-03-09 Volkswagen Aktiengesellschaft Verfahren zum Betrieb eines Augmented-Reality-Systems
JP6661980B2 (ja) * 2015-11-06 2020-03-11 富士通株式会社 重畳表示方法、重畳表示装置、及び重畳表示プログラム
JP2017182274A (ja) 2016-03-29 2017-10-05 セイコーエプソン株式会社 情報処理装置およびコンピュータープログラム
JP2017187882A (ja) 2016-04-04 2017-10-12 セイコーエプソン株式会社 画像処理に用いられるコンピュータープログラム
CN109564434B (zh) * 2016-08-05 2023-07-25 深圳市大疆创新科技有限公司 用于定位可移动物体的***和方法
US20180357819A1 (en) * 2017-06-13 2018-12-13 Fotonation Limited Method for generating a set of annotated images
US10621751B2 (en) 2017-06-16 2020-04-14 Seiko Epson Corporation Information processing device and computer program
US10552665B2 (en) 2017-12-12 2020-02-04 Seiko Epson Corporation Methods and systems for training an object detection algorithm using synthetic images
US10970425B2 (en) 2017-12-26 2021-04-06 Seiko Epson Corporation Object detection and tracking
US10410089B2 (en) 2018-01-19 2019-09-10 Seiko Epson Corporation Training assistance using synthetic images
US10311833B1 (en) 2018-03-27 2019-06-04 Seiko Epson Corporation Head-mounted display device and method of operating a display apparatus tracking an object
US10769437B2 (en) 2018-04-10 2020-09-08 Seiko Epson Corporation Adaptive sampling of training views
US10878285B2 (en) 2018-04-12 2020-12-29 Seiko Epson Corporation Methods and systems for shape based training for an object detection algorithm
US10634918B2 (en) 2018-09-06 2020-04-28 Seiko Epson Corporation Internal edge verification
DE102018218475B4 (de) 2018-10-29 2022-03-10 Carl Zeiss Optotechnik GmbH Trackingsystem und optisches Messsystem zur Bestimmung mindestens einer räumlichen Position und Orientierung mindestens eines Messobjekts
US10810430B2 (en) 2018-12-27 2020-10-20 At&T Intellectual Property I, L.P. Augmented reality with markerless, context-aware object tracking
CN110555260B (zh) * 2019-08-29 2023-10-24 中国南方电网有限责任公司 电缆工作井模型数据处理方法、装置和计算机设备
US11196842B2 (en) 2019-09-26 2021-12-07 At&T Intellectual Property I, L.P. Collaborative and edge-enhanced augmented reality systems
CN112053449A (zh) * 2020-09-09 2020-12-08 脸萌有限公司 基于增强现实的显示方法、设备及存储介质
US11893698B2 (en) * 2020-11-04 2024-02-06 Samsung Electronics Co., Ltd. Electronic device, AR device and method for controlling data transfer interval thereof
CN112818451A (zh) * 2021-02-02 2021-05-18 盈嘉互联(北京)科技有限公司 一种基于vgg的bim模型最佳视觉角度构建方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0798765A (ja) * 1993-04-20 1995-04-11 At & T Corp 方向検出方法および画像解析装置
JPH0950540A (ja) * 1995-08-09 1997-02-18 Hitachi Ltd 画像生成方法
JP2003077011A (ja) * 2002-06-24 2003-03-14 Fujitsu Ltd 3次元形状モデルの表示方法及び装置
JP2003141569A (ja) * 2001-10-31 2003-05-16 Canon Inc 情報処理方法および映像合成装置
JP2004021931A (ja) * 2002-06-20 2004-01-22 West Unitis Kk 作業誘導システム
JP2004280428A (ja) * 2003-03-14 2004-10-07 Fuji Heavy Ind Ltd 立体物の表示装置
JP2005050036A (ja) * 2003-07-31 2005-02-24 Canon Inc 画像処理方法および装置
JP2005267554A (ja) * 2004-03-22 2005-09-29 Canon Inc 画像処理方法、画像処理装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6304263B1 (en) * 1996-06-05 2001-10-16 Hyper3D Corp. Three-dimensional display system: apparatus and method
US6816629B2 (en) * 2001-09-07 2004-11-09 Realty Mapping Llc Method and system for 3-D content creation
US7034820B2 (en) * 2001-12-03 2006-04-25 Canon Kabushiki Kaisha Method, apparatus and program for processing a three-dimensional image
WO2005081191A1 (en) * 2004-02-18 2005-09-01 Bloodworth, Keith Adaptive 3d image modelling system and appartus and method therefor
JP4463597B2 (ja) * 2004-03-24 2010-05-19 富士通株式会社 3次元描画モデル生成方法及びそのプログラム
WO2006083297A2 (en) * 2004-06-10 2006-08-10 Sarnoff Corporation Method and apparatus for aligning video to three-dimensional point clouds
US8396329B2 (en) * 2004-12-23 2013-03-12 General Electric Company System and method for object measurement

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0798765A (ja) * 1993-04-20 1995-04-11 At & T Corp 方向検出方法および画像解析装置
JPH0950540A (ja) * 1995-08-09 1997-02-18 Hitachi Ltd 画像生成方法
JP2003141569A (ja) * 2001-10-31 2003-05-16 Canon Inc 情報処理方法および映像合成装置
JP2004021931A (ja) * 2002-06-20 2004-01-22 West Unitis Kk 作業誘導システム
JP2003077011A (ja) * 2002-06-24 2003-03-14 Fujitsu Ltd 3次元形状モデルの表示方法及び装置
JP2004280428A (ja) * 2003-03-14 2004-10-07 Fuji Heavy Ind Ltd 立体物の表示装置
JP2005050036A (ja) * 2003-07-31 2005-02-24 Canon Inc 画像処理方法および装置
JP2005267554A (ja) * 2004-03-22 2005-09-29 Canon Inc 画像処理方法、画像処理装置

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011510421A (ja) * 2008-01-23 2011-03-31 トップコン ジーピーエス,エルエルシー 重複ポリトープを介した幾何学的要素による点の順序集合の近似
US8520931B2 (en) 2008-09-24 2013-08-27 Canon Kabushiki Kaisha Position and orientation measurement apparatus and method thereof
EP2169627A2 (en) 2008-09-24 2010-03-31 Canon Kabushiki Kaisha Model generation apparatus and method
JP2015084229A (ja) * 2009-10-19 2015-04-30 メタイオ ゲゼルシャフト ミット ベシュレンクテル ハフツングmetaio GmbH カメラ姿勢決定方法、及び実環境物体認識方法
US10229511B2 (en) 2009-10-19 2019-03-12 Apple Inc. Method for determining the pose of a camera and for recognizing an object of a real environment
US10580162B2 (en) 2009-10-19 2020-03-03 Apple Inc. Method for determining the pose of a camera and for recognizing an object of a real environment
JP2011163866A (ja) * 2010-02-08 2011-08-25 Nippon Telegr & Teleph Corp <Ntt> コンクリート画像抽出方法
US11859982B2 (en) 2016-09-02 2024-01-02 Apple Inc. System for determining position both indoor and outdoor
US10739142B2 (en) 2016-09-02 2020-08-11 Apple Inc. System for determining position both indoor and outdoor
WO2019107150A1 (ja) * 2017-11-30 2019-06-06 株式会社ニコン 検出装置、処理装置、装着物、検出方法、及び検出プログラム
JP7078056B2 (ja) 2017-11-30 2022-05-31 株式会社ニコン 検出装置、処理装置、装着物、検出方法、及び検出プログラム
JP2022105594A (ja) * 2017-11-30 2022-07-14 株式会社ニコン 処理装置、検出装置、システム及びプログラム
JP7363962B2 (ja) 2017-11-30 2023-10-18 株式会社ニコン 処理装置、検出装置、システム及びプログラム
JPWO2019107150A1 (ja) * 2017-11-30 2020-12-03 株式会社ニコン 検出装置、処理装置、装着物、検出方法、及び検出プログラム
US11176661B2 (en) 2018-10-30 2021-11-16 Fujitsu Limited Image processing apparatus and image processing method

Also Published As

Publication number Publication date
DE102006055893A1 (de) 2008-05-29
JP4531069B2 (ja) 2010-08-25
US7889193B2 (en) 2011-02-15
DE102006005044B4 (de) 2011-01-27
US20070182739A1 (en) 2007-08-09
DE102006005044A1 (de) 2007-08-16

Similar Documents

Publication Publication Date Title
JP4531069B2 (ja) 現実の対象物の画像と重ね合わされるように設計されたデータモデルを決定するための方法及びシステム
US9609307B1 (en) Method of converting 2D video to 3D video using machine learning
JP6041838B2 (ja) 現実環境内にバーチャルオブジェクトを描写する方法および装置
US8270704B2 (en) Method and apparatus for reconstructing 3D shape model of object by using multi-view image information
JP5133418B2 (ja) 現実環境内にバーチャルオブジェクトを描写する方法および装置
CN109816704A (zh) 物体的三维信息获取方法和装置
JP5777507B2 (ja) 情報処理装置、情報処理方法、及びそのプログラム
US20130162643A1 (en) Physical Three-Dimensional Model Generation Apparatus
US20100328308A1 (en) Three Dimensional Mesh Modeling
CN110349247A (zh) 一种基于语义理解的室内场景cad三维重建方法
CN103310420B (zh) 基于纹理与几何相似性的彩色图像空洞修复方法及***
CN108648194A (zh) 基于cad模型三维目标识别分割和位姿测量方法及装置
CN106652037B (zh) 一种人脸贴图处理方法及装置
CN107369204A (zh) 一种基于深度学习从单幅照片恢复出场景基本三维结构的方法
CN115082254A (zh) 一种变电站精益管控数字孪生***
CN103761766A (zh) 基于色调映射和图像平滑的三维物体模型纹理映射算法
CN108898679A (zh) 一种零部件序号自动标注的方法
JP7078564B2 (ja) 画像処理装置及びプログラム
Nguyen et al. High-definition texture reconstruction for 3D image-based modeling
CN115063485B (zh) 三维重建方法、装置及计算机可读存储介质
CN115841546A (zh) 一种场景结构关联的地铁站多视矢量仿真渲染方法及***
KR102316111B1 (ko) 빅데이터를 활용한 인공지능 기반 애니메이션 레이아웃 시스템 및 그 방법
CN108830804A (zh) 基于线扩展函数标准差的虚实融合模糊一致性处理方法
CN115620033A (zh) 用于检查物体的方法
JP2021111375A (ja) 現実のシーンのビデオフラックスの拡張

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090609

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20090901

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20090904

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20090929

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20091002

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20091109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091110

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20091112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100412

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100511

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100608

R150 Certificate of patent or registration of utility model

Ref document number: 4531069

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130618

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250