JP2007207251A - 現実の対象物の画像と重ね合わされるように設計されたデータモデルを決定するための方法及びシステム - Google Patents
現実の対象物の画像と重ね合わされるように設計されたデータモデルを決定するための方法及びシステム Download PDFInfo
- Publication number
- JP2007207251A JP2007207251A JP2007023037A JP2007023037A JP2007207251A JP 2007207251 A JP2007207251 A JP 2007207251A JP 2007023037 A JP2007023037 A JP 2007023037A JP 2007023037 A JP2007023037 A JP 2007023037A JP 2007207251 A JP2007207251 A JP 2007207251A
- Authority
- JP
- Japan
- Prior art keywords
- dimensional
- edge
- data model
- determining
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 83
- 238000013499 data model Methods 0.000 title claims abstract description 52
- 230000008569 process Effects 0.000 claims abstract description 16
- 238000000605 extraction Methods 0.000 claims abstract description 9
- 230000000007 visual effect Effects 0.000 claims description 21
- 230000003190 augmentative effect Effects 0.000 claims description 12
- 238000004422 calculation algorithm Methods 0.000 claims description 10
- 239000002131 composite material Substances 0.000 claims description 7
- 238000004590 computer program Methods 0.000 claims description 6
- 238000005457 optimization Methods 0.000 claims description 6
- 238000004088 simulation Methods 0.000 claims description 3
- 239000003086 colorant Substances 0.000 claims 1
- 230000000977 initiatory effect Effects 0.000 claims 1
- 238000012795 verification Methods 0.000 claims 1
- 230000003287 optical effect Effects 0.000 abstract description 11
- 230000001131 transforming effect Effects 0.000 abstract 1
- 238000009826 distribution Methods 0.000 description 10
- 230000036544 posture Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 3
- 238000011835 investigation Methods 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 238000009877 rendering Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000002730 additional effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000005094 computer simulation Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000009776 industrial production Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000010561 standard procedure Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/564—Depth or shape recovery from multiple images from contours
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
Abstract
【解決手段】光学的な対象物トラッキング過程において、現実の対象物の画像と重ね合わせられるように設計されたデータモデルは、現実の対象物を表現するための3次元CADモデルを与え、その後3次元CADモデルの異なる合成2次元景観を生成する工程と、生成された各景観に対し、各景観において少なくとも1つの抽出されたエッジを決定するためにエッジ抽出を行ない、各景観から抽出されたエッジは決定されるべき前記データモデルに対応する3次元輪郭モデルに変換する工程とを具備する。
【選択図】図3
Description
知識に基づいて作られたもので、対応する技術的な成果に基づく評価は、固有的特徴の光学的で技術的な関連性によって、又これらが前述の技術的な問題を解くのにどのように寄与するかによってなされる。
(a)1つのエッジだけの分布にはならない、大きな分布を持った点から成る領域。
(b)大変近接した幾つかのエッジに分布した点から成る領域。
(c)1つのエッジに分布した点から成る領域(理想的な状況)。
初期状況の付加的な性質は、以下のようになる。
(a)1つのエッジを構成する点は連続的に1つの線上に分布するのではなく、理想的な
エッジの周りに分布し、理想的なエッジに対して誤差(noise)を持った状態
で分布する。
(b)エッジの誤差は異なった大きさを持つ。即ち、理想のエッジから点までの直交距離
は変化する。エッジ生成のために点の位置の平均化を行なう場合、半径はエッジに
関連する全ての点を含むように十分大きく、又同時に近傍の異なるエッジの点を含
まないようにできるだけ小さくする必要がある。半径は可変である必要がある。
これに関して、点集合全体の中のこのような点について、エッジ形成とその次の工程のどれを、エッジを形成するために近似するか決定するという問題が生じる。
この初期状況を基礎として、前述にあるように特に2つの問題が生じる。
(a)近接した位置にあるエッジ。この場合、点集合の点は対応する領域で互いに近接し
ており、異なったエッジに関連付ける必要がある。これは図10に示され、そこで
は互いに近接した位置にある典型的なエッジの選別された点集合200が例示され
ている。
(b)誤差の大きさの変動。即ち、点の理想のエッジからの直交距離が変動することが考
えられる。
これに関する解決法としては、所謂ユークリディアン最小全域木(EMST)を利用したアルゴリズムが好適に用いられる。
(a)フォレスト(forest) F(1組の木)の生成。フォレスト Fではそれぞ
れの点はまず分離した木を構成する。
(b)曲線Gの全てのエッジを含むセットSの生成。
(c)セットSが何も含まないことがない限り、
− セットSから最も低い重みを持ったエッジ(例えば最短のエッジ)を取り除
く。
めに2つの木とそのエッジを加える。
このようにして形成された木が求めるEMSTであり、その例が図11のEMST201に示される。そこでは近接した位置にあるエッジの選別された点集合から以前に決定された幾つかの点を連結している。ここでEMST201は、エッジ213と214に連結される二つの隣接したエッジ211と212のEMSTを表現する。EMSTは点の所属を決定する。
20、30、31〜34 3次元CADモデル10の2次元景観
21、23、23 視覚的なエッジ
1、2、3、4 カメラの姿勢
40〜44 仮想カメラ
37 エッジ画素
38、39 視覚的に抽出されたエッジ
50 カラーコーディングモデル
70 2次元エッジ画素の3次元位置
71〜75 輪郭区分
81〜85 線区分
91 Bスプライン
92 制御点
200 選別された点集合
201,202,203 EMST
205 木の重心
211〜214 エッジ
220 エッジ211と212を繋ぐ連結
Claims (21)
- 対象物トラッキング過程において、現実の対象物の画像と重ね合わされるように設計された仮想情報のデータモデルを決定するための方法であって、
(a)前記現実の対象物を表現するために3次元CADモデル(10)を作成する工程と、
(b)前記3次元CADモデル(10)の異なった合成2次元景観(31〜34)を生成する工程と、
(c)前記生成された各景観(31〜34)に対して、前記各景観において抽出された少なくとも1つのエッジ(38、39)を決定するためにエッジ抽出を行なう工程と、
(d)前記各景観(31〜34)から抽出された前記エッジ(38、39)を前記データモデルに対応した3次元輪郭モデル(85、91)に変換する工程と、
を具備したことを特徴とする仮想情報のデータモデルを決定する方法。 - (a)前記エッジ抽出に続いて、抽出されたエッジ(38、39)の2次元エッジ点(37)を決定する工程と、
(b)前記抽出されたエッジ(38、39)において、前記3次元CADモデル(10)を使用して前記各エッジ点(37)の3次元における位置を決定し、前記3次元輪郭モデル(85、91)が決定される1組の3次元点(70)を得る工程と、
を具備している請求項1に記載の仮想情報のデータモデルを決定する方法。 - 前記各エッジ点(37)は画像平面上で2次元点として検知され、前記エッジ点の3次元における位置(70)は、前記3次元CADモデル(10)の座標系(11)において決定される請求項2に記載の仮想情報のデータモデルを決定する方法。
- 前記エッジ点から得られた3次元位置(70)は、3次元点の空間的近接位置を調査することができるデータ構造に格納され、前記データ構造は特にk−d木の形式である請求項2又は3に記載の仮想情報のデータモデルを決定する方法。
- 前記エッジ点の3次元位置(70)の決定後、前記3次元位置に既に3次元点(70)が存在することを確認する際に、前記3次元点に対する計数値を増加させるようになっている請求項2乃至4のいずれかに記載の仮想情報のデータモデルを決定する方法。
- 空間上の同じ3次元位置に属するエッジ点(37)が一つの3次元点(70)として格納され、前記3次元位置にエッジ点が配置されると計数値を増加させるようになっている請求項2乃至5のいずれかに記載の仮想情報のデータモデルを決定する方法。
- (a)同じ3次元上の位置に属するエッジ点を認識する為に、前記エッジ点の3次元位置の決定の後、前記各エッジ点(37)に対して、前記エッジ点の極近傍に3次元点(70)が少なくとも一つ格納されているかどうかについての検証を開始する工程と、
(b)前記エッジ点の極近傍に3次元点(70)が少なくとも一つ格納されている場合、新たな3次元点は格納せず、前記すでに格納されている3次元点(70)の計数値を増加させる工程と、
(c)前記極近傍を閾値によって決定する工程と、
を更に具備している請求項6に記載の仮想情報のデータモデルを決定する方法。 - 前記3次元点が1つの視覚的なエッジ(38、39)に属するとして評価された回数を示す値を、前記3次元点(70)のそれぞれが保持している請求項2乃至7のいずれかに記載の仮想情報のデータモデルを決定する方法。
- (a)閾値を利用して、前記閾値以下の関連する値を保持する3次元点(70)を廃棄する工程と、
(b)残りの3次元点(70)について、前記現実の対象物に視覚的に関連した輪郭を表現する工程と、
を更に具備している請求項8に記載の仮想情報のデータモデルを決定する方法。 - (a)1組の3次元点(70)を、拡張現実感システムにおいて次に続くトラッキング法に対して、高い確率で前記現実の対象物の輪郭を表現する部分とする工程と、
(b)閾値法は、特定の閾値以下の関連する確率或いは関連する計数値を保持するどの3次元点(70)を廃棄するかに関して使用する工程と、
を更に具備している請求項2乃至9のいずれかに記載の仮想情報のデータモデルを決定する方法。 - 前記1組の3次元点(70)が、結合された輪郭区分(71〜75)に分割されるようになっている請求項2乃至10のいずれかに記載の仮想情報のデータモデルを決定する方法。
- 前記1組の3次元点(70)を結合された輪郭区分(71〜75)に分割するために、前記3次元点のユークリディアン最小全域木(Eucidean minimum spanning tree)を決定する方法を採用したアルゴリズムが使用されるようになっている請求項11に記載の仮想情報のデータモデルを決定する方法。
- 点集合(200)の前記ユークリディアン最小全域木(201)を決定するために、最初に前記点集合の内、互いの距離が最大許容誤差r_max以下である全ての点を相互に連結する曲線が形成されるようになっている請求項12に記載の仮想情報のデータモデルを決定する方法。
- 前記曲線Gの前記ユークリディアン最小全域木として、エッジの長さの総和が最小になるように前記曲線Gの全ての点を連結する木(201)が決定されるようになっている請求項13に記載の仮想情報のデータモデルを決定する方法。
- 前記輪郭区分内の前記3次元点(70)の少なくとも一部が、特に曲線、Bスプライン、ベジールスプライン或いはNURBSを用いて近似される適当な輪郭表現(81〜85;91)によって置き換えられる請求項11乃至14のいずれかに記載の仮想情報のデータモデルを決定する方法。
- 前記3次元CADモデルの異なる合成2次元景観(31〜34)を生成する際に、異なる光源の状況でシミュレーションを行なう請求項1乃至15のいずれかに記載の仮想情報のデータモデルを決定する方法。
- 前記3次元CADモデル(10)の各2次元景観(31〜34)に対して、各面に明確な色を割り当ててある個々の面を保持した合成カラー景観(50)を生成し、同じ2次元位置における各エッジ点に対して、カラー値を前記合成カラー画像から回復し、前記決定されたカラー値は前記3次元CADモデル(10)の対応する面にアクセスするための指標として用いられ、前記3次元CADモデルの各面は3次元空間上の平面に広がっており、2次元エッジ点が決定されるべき3次元位置(70)は、前記3次元CADモデル(10)の前記対応する面の前記平面と、仮想カメラ(40)の中心と、前記各2次元エッジ点を結ぶ直線との交点である請求項1乃至16のいずれかに記載の仮想情報のデータモデルを決定する方法。
- 画像平面上の現実の対象物の画像と重ね合わされ、仮想情報のデータモデルを利用する対象物トラッキング方法が、
(a)請求項1乃至17のいずれかの特徴に従って前記データモデルを作成する工程と、
(b)少なくとも前記現実の対象物を含むようにカメラを用いて2次元画像を撮影する工程、
(c)前記データモデルの投影を前記画像平面上の前記現実の対象物の画像と重ね合わせるために、前記データモデルを前記画像平面に投影する最適化法を実行する工程と、
を具備したことを特徴とする対象物トラッキング方法。 - (a)前記データモデルの投影を前記現実の対象物の画像と比較する工程と、
(b)前記比較の結果を基にして前記カメラの姿勢に関するパラメータを決定する工程と、
を更に具備している請求項18に記載の対象物トラッキング方法。 - 拡張現実感システムによって現実の対象物の画像と重ね合わされるように設計された仮想情報のデータモデルを決定するためのシステムであって、
(a)前記現実の対象物を表現するために3次元CADモデル(10)を作成する手段と、
(b)前記3次元CADモデル(10)の異なった合成2次元景観(31〜34)を生成すると共に、前記各景観(31〜34)に対して少なくとも1つの抽出された各エッジ(38、39)を決定するためにエッジの抽出を行なう手段と、
(d)前記各景観(31〜34)から抽出された前記エッジ(38、39)を前記データモデルに対応する3次元輪郭モデル(85、91)に変換する手段と、
を具備したことを特徴とする仮想情報のデータモデルを決定するシステム。 - デジタルコンピュータの内部メモリにロードされるように適用されるコンピュータプログラム製品であって、前記コンピュータプログラム製品は前記コンピュータ上で実行される時に請求項1乃至17のいずれかに従う工程が実行される際に用いられるソフトウェアコード区分から成ることを特徴とするコンピュータプログラム製品。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102006005044A DE102006005044B4 (de) | 2006-02-03 | 2006-02-03 | Verfahren und System zur Bestimmung eines Datenmodells zur Überlagerung mit einem realen Objekt in einem Verfahren zur Objektverfolgung |
DE102006055893A DE102006055893A1 (de) | 2006-02-03 | 2006-11-27 | Verfahren und System zur Bestimmung eines Datenmodells zur Überlagerung mit einem realen Objekt in einem Verfahren zur Objektverfolgung |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007207251A true JP2007207251A (ja) | 2007-08-16 |
JP4531069B2 JP4531069B2 (ja) | 2010-08-25 |
Family
ID=38333585
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007023037A Active JP4531069B2 (ja) | 2006-02-03 | 2007-02-01 | 現実の対象物の画像と重ね合わされるように設計されたデータモデルを決定するための方法及びシステム |
Country Status (3)
Country | Link |
---|---|
US (1) | US7889193B2 (ja) |
JP (1) | JP4531069B2 (ja) |
DE (2) | DE102006005044B4 (ja) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2169627A2 (en) | 2008-09-24 | 2010-03-31 | Canon Kabushiki Kaisha | Model generation apparatus and method |
JP2011510421A (ja) * | 2008-01-23 | 2011-03-31 | トップコン ジーピーエス,エルエルシー | 重複ポリトープを介した幾何学的要素による点の順序集合の近似 |
JP2011163866A (ja) * | 2010-02-08 | 2011-08-25 | Nippon Telegr & Teleph Corp <Ntt> | コンクリート画像抽出方法 |
US8520931B2 (en) | 2008-09-24 | 2013-08-27 | Canon Kabushiki Kaisha | Position and orientation measurement apparatus and method thereof |
JP2015084229A (ja) * | 2009-10-19 | 2015-04-30 | メタイオ ゲゼルシャフト ミット ベシュレンクテル ハフツングmetaio GmbH | カメラ姿勢決定方法、及び実環境物体認識方法 |
WO2019107150A1 (ja) * | 2017-11-30 | 2019-06-06 | 株式会社ニコン | 検出装置、処理装置、装着物、検出方法、及び検出プログラム |
US10739142B2 (en) | 2016-09-02 | 2020-08-11 | Apple Inc. | System for determining position both indoor and outdoor |
US11176661B2 (en) | 2018-10-30 | 2021-11-16 | Fujitsu Limited | Image processing apparatus and image processing method |
Families Citing this family (51)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7680324B2 (en) | 2000-11-06 | 2010-03-16 | Evryx Technologies, Inc. | Use of image-derived information as search criteria for internet and other search engines |
US7899243B2 (en) | 2000-11-06 | 2011-03-01 | Evryx Technologies, Inc. | Image capture and identification system and process |
US8224078B2 (en) | 2000-11-06 | 2012-07-17 | Nant Holdings Ip, Llc | Image capture and identification system and process |
US9310892B2 (en) | 2000-11-06 | 2016-04-12 | Nant Holdings Ip, Llc | Object information derived from object images |
US8218873B2 (en) | 2000-11-06 | 2012-07-10 | Nant Holdings Ip, Llc | Object information derived from object images |
US7565008B2 (en) | 2000-11-06 | 2009-07-21 | Evryx Technologies, Inc. | Data capture and identification system and process |
US8094090B2 (en) * | 2007-10-19 | 2012-01-10 | Southwest Research Institute | Real-time self-visualization system |
JP4557041B2 (ja) * | 2008-04-18 | 2010-10-06 | 株式会社デンソー | 車両用画像処理装置 |
US8346017B2 (en) * | 2008-04-30 | 2013-01-01 | Microsoft Corporation | Intermediate point between images to insert/overlay ads |
FR2933218B1 (fr) * | 2008-06-30 | 2011-02-11 | Total Immersion | Procede et dispositif permettant de detecter en temps reel des interactions entre un utilisateur et une scene de realite augmentee |
KR20150008840A (ko) | 2010-02-24 | 2015-01-23 | 아이피플렉 홀딩스 코포레이션 | 시각 장애인들을 지원하는 증강 현실 파노라마 |
US8810598B2 (en) | 2011-04-08 | 2014-08-19 | Nant Holdings Ip, Llc | Interference based augmented reality hosting platforms |
US9208571B2 (en) | 2011-06-06 | 2015-12-08 | Microsoft Technology Licensing, Llc | Object digitization |
DE102012014995A1 (de) | 2012-07-28 | 2014-01-30 | Volkswagen Aktiengesellschaft | Verfahren zum Betrieb eines Augmented-Reality-Systems |
CN103020342B (zh) * | 2012-12-04 | 2015-07-15 | 南京大学 | 一种从地面LiDAR数据中提取建筑物轮廓和角点的方法 |
DE102012113009A1 (de) * | 2012-12-21 | 2014-06-26 | Jenoptik Robot Gmbh | Verfahren zum automatischen Klassifizieren von sich bewegenden Fahrzeugen |
CN103453851B (zh) * | 2013-09-18 | 2017-01-04 | 沈阳飞机工业(集团)有限公司 | 一种模胎上零件外形轮廓线的检测方法 |
US9582516B2 (en) | 2013-10-17 | 2017-02-28 | Nant Holdings Ip, Llc | Wide area augmented reality location-based services |
US9530250B2 (en) * | 2013-12-10 | 2016-12-27 | Dassault Systemes | Augmented reality updating of 3D CAD models |
CN103903280B (zh) * | 2014-03-28 | 2017-01-11 | 哈尔滨工程大学 | 一种改进水平集目标提取的子块权重Mean-Shift跟踪方法 |
US20150324646A1 (en) * | 2014-05-08 | 2015-11-12 | Brown University | Navigation methods and apparatus for the visually impaired |
DE102014217718B4 (de) | 2014-09-04 | 2021-12-02 | Volkswagen Aktiengesellschaft | Verfahren zum Betrieb eines Augmented-Reality-Systems |
US9746913B2 (en) | 2014-10-31 | 2017-08-29 | The United States Of America As Represented By The Secretary Of The Navy | Secured mobile maintenance and operator system including wearable augmented reality interface, voice command interface, and visual recognition systems and related methods |
US10142596B2 (en) | 2015-02-27 | 2018-11-27 | The United States Of America, As Represented By The Secretary Of The Navy | Method and apparatus of secured interactive remote maintenance assist |
JP2016173703A (ja) * | 2015-03-17 | 2016-09-29 | 株式会社ミツトヨ | タッチディスプレイを用いた入力操作を支援する方法 |
CN106144861B (zh) | 2015-04-03 | 2020-07-24 | 奥的斯电梯公司 | 用于乘客运输控制的基于深度传感器的乘客感测 |
CN106144795B (zh) | 2015-04-03 | 2020-01-31 | 奥的斯电梯公司 | 通过识别用户操作用于乘客运输控制和安全的***和方法 |
CN106144801B (zh) | 2015-04-03 | 2021-05-18 | 奥的斯电梯公司 | 用于特殊乘客运输工具负载状况的基于深度传感器的感测 |
CN106144862B (zh) | 2015-04-03 | 2020-04-10 | 奥的斯电梯公司 | 用于乘客运输门控制的基于深度传感器的乘客感测 |
CN106144797B (zh) * | 2015-04-03 | 2020-11-27 | 奥的斯电梯公司 | 用于乘客运输的通行列表产生 |
DE102015215613A1 (de) | 2015-08-17 | 2017-03-09 | Volkswagen Aktiengesellschaft | Verfahren zum Betrieb eines Augmented-Reality-Systems |
JP6661980B2 (ja) * | 2015-11-06 | 2020-03-11 | 富士通株式会社 | 重畳表示方法、重畳表示装置、及び重畳表示プログラム |
JP2017182274A (ja) | 2016-03-29 | 2017-10-05 | セイコーエプソン株式会社 | 情報処理装置およびコンピュータープログラム |
JP2017187882A (ja) | 2016-04-04 | 2017-10-12 | セイコーエプソン株式会社 | 画像処理に用いられるコンピュータープログラム |
CN109564434B (zh) * | 2016-08-05 | 2023-07-25 | 深圳市大疆创新科技有限公司 | 用于定位可移动物体的***和方法 |
US20180357819A1 (en) * | 2017-06-13 | 2018-12-13 | Fotonation Limited | Method for generating a set of annotated images |
US10621751B2 (en) | 2017-06-16 | 2020-04-14 | Seiko Epson Corporation | Information processing device and computer program |
US10552665B2 (en) | 2017-12-12 | 2020-02-04 | Seiko Epson Corporation | Methods and systems for training an object detection algorithm using synthetic images |
US10970425B2 (en) | 2017-12-26 | 2021-04-06 | Seiko Epson Corporation | Object detection and tracking |
US10410089B2 (en) | 2018-01-19 | 2019-09-10 | Seiko Epson Corporation | Training assistance using synthetic images |
US10311833B1 (en) | 2018-03-27 | 2019-06-04 | Seiko Epson Corporation | Head-mounted display device and method of operating a display apparatus tracking an object |
US10769437B2 (en) | 2018-04-10 | 2020-09-08 | Seiko Epson Corporation | Adaptive sampling of training views |
US10878285B2 (en) | 2018-04-12 | 2020-12-29 | Seiko Epson Corporation | Methods and systems for shape based training for an object detection algorithm |
US10634918B2 (en) | 2018-09-06 | 2020-04-28 | Seiko Epson Corporation | Internal edge verification |
DE102018218475B4 (de) | 2018-10-29 | 2022-03-10 | Carl Zeiss Optotechnik GmbH | Trackingsystem und optisches Messsystem zur Bestimmung mindestens einer räumlichen Position und Orientierung mindestens eines Messobjekts |
US10810430B2 (en) | 2018-12-27 | 2020-10-20 | At&T Intellectual Property I, L.P. | Augmented reality with markerless, context-aware object tracking |
CN110555260B (zh) * | 2019-08-29 | 2023-10-24 | 中国南方电网有限责任公司 | 电缆工作井模型数据处理方法、装置和计算机设备 |
US11196842B2 (en) | 2019-09-26 | 2021-12-07 | At&T Intellectual Property I, L.P. | Collaborative and edge-enhanced augmented reality systems |
CN112053449A (zh) * | 2020-09-09 | 2020-12-08 | 脸萌有限公司 | 基于增强现实的显示方法、设备及存储介质 |
US11893698B2 (en) * | 2020-11-04 | 2024-02-06 | Samsung Electronics Co., Ltd. | Electronic device, AR device and method for controlling data transfer interval thereof |
CN112818451A (zh) * | 2021-02-02 | 2021-05-18 | 盈嘉互联(北京)科技有限公司 | 一种基于vgg的bim模型最佳视觉角度构建方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0798765A (ja) * | 1993-04-20 | 1995-04-11 | At & T Corp | 方向検出方法および画像解析装置 |
JPH0950540A (ja) * | 1995-08-09 | 1997-02-18 | Hitachi Ltd | 画像生成方法 |
JP2003077011A (ja) * | 2002-06-24 | 2003-03-14 | Fujitsu Ltd | 3次元形状モデルの表示方法及び装置 |
JP2003141569A (ja) * | 2001-10-31 | 2003-05-16 | Canon Inc | 情報処理方法および映像合成装置 |
JP2004021931A (ja) * | 2002-06-20 | 2004-01-22 | West Unitis Kk | 作業誘導システム |
JP2004280428A (ja) * | 2003-03-14 | 2004-10-07 | Fuji Heavy Ind Ltd | 立体物の表示装置 |
JP2005050036A (ja) * | 2003-07-31 | 2005-02-24 | Canon Inc | 画像処理方法および装置 |
JP2005267554A (ja) * | 2004-03-22 | 2005-09-29 | Canon Inc | 画像処理方法、画像処理装置 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6304263B1 (en) * | 1996-06-05 | 2001-10-16 | Hyper3D Corp. | Three-dimensional display system: apparatus and method |
US6816629B2 (en) * | 2001-09-07 | 2004-11-09 | Realty Mapping Llc | Method and system for 3-D content creation |
US7034820B2 (en) * | 2001-12-03 | 2006-04-25 | Canon Kabushiki Kaisha | Method, apparatus and program for processing a three-dimensional image |
WO2005081191A1 (en) * | 2004-02-18 | 2005-09-01 | Bloodworth, Keith | Adaptive 3d image modelling system and appartus and method therefor |
JP4463597B2 (ja) * | 2004-03-24 | 2010-05-19 | 富士通株式会社 | 3次元描画モデル生成方法及びそのプログラム |
WO2006083297A2 (en) * | 2004-06-10 | 2006-08-10 | Sarnoff Corporation | Method and apparatus for aligning video to three-dimensional point clouds |
US8396329B2 (en) * | 2004-12-23 | 2013-03-12 | General Electric Company | System and method for object measurement |
-
2006
- 2006-02-03 DE DE102006005044A patent/DE102006005044B4/de active Active
- 2006-11-27 DE DE102006055893A patent/DE102006055893A1/de not_active Withdrawn
-
2007
- 2007-01-30 US US11/668,495 patent/US7889193B2/en active Active
- 2007-02-01 JP JP2007023037A patent/JP4531069B2/ja active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0798765A (ja) * | 1993-04-20 | 1995-04-11 | At & T Corp | 方向検出方法および画像解析装置 |
JPH0950540A (ja) * | 1995-08-09 | 1997-02-18 | Hitachi Ltd | 画像生成方法 |
JP2003141569A (ja) * | 2001-10-31 | 2003-05-16 | Canon Inc | 情報処理方法および映像合成装置 |
JP2004021931A (ja) * | 2002-06-20 | 2004-01-22 | West Unitis Kk | 作業誘導システム |
JP2003077011A (ja) * | 2002-06-24 | 2003-03-14 | Fujitsu Ltd | 3次元形状モデルの表示方法及び装置 |
JP2004280428A (ja) * | 2003-03-14 | 2004-10-07 | Fuji Heavy Ind Ltd | 立体物の表示装置 |
JP2005050036A (ja) * | 2003-07-31 | 2005-02-24 | Canon Inc | 画像処理方法および装置 |
JP2005267554A (ja) * | 2004-03-22 | 2005-09-29 | Canon Inc | 画像処理方法、画像処理装置 |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011510421A (ja) * | 2008-01-23 | 2011-03-31 | トップコン ジーピーエス,エルエルシー | 重複ポリトープを介した幾何学的要素による点の順序集合の近似 |
US8520931B2 (en) | 2008-09-24 | 2013-08-27 | Canon Kabushiki Kaisha | Position and orientation measurement apparatus and method thereof |
EP2169627A2 (en) | 2008-09-24 | 2010-03-31 | Canon Kabushiki Kaisha | Model generation apparatus and method |
JP2015084229A (ja) * | 2009-10-19 | 2015-04-30 | メタイオ ゲゼルシャフト ミット ベシュレンクテル ハフツングmetaio GmbH | カメラ姿勢決定方法、及び実環境物体認識方法 |
US10229511B2 (en) | 2009-10-19 | 2019-03-12 | Apple Inc. | Method for determining the pose of a camera and for recognizing an object of a real environment |
US10580162B2 (en) | 2009-10-19 | 2020-03-03 | Apple Inc. | Method for determining the pose of a camera and for recognizing an object of a real environment |
JP2011163866A (ja) * | 2010-02-08 | 2011-08-25 | Nippon Telegr & Teleph Corp <Ntt> | コンクリート画像抽出方法 |
US11859982B2 (en) | 2016-09-02 | 2024-01-02 | Apple Inc. | System for determining position both indoor and outdoor |
US10739142B2 (en) | 2016-09-02 | 2020-08-11 | Apple Inc. | System for determining position both indoor and outdoor |
WO2019107150A1 (ja) * | 2017-11-30 | 2019-06-06 | 株式会社ニコン | 検出装置、処理装置、装着物、検出方法、及び検出プログラム |
JP7078056B2 (ja) | 2017-11-30 | 2022-05-31 | 株式会社ニコン | 検出装置、処理装置、装着物、検出方法、及び検出プログラム |
JP2022105594A (ja) * | 2017-11-30 | 2022-07-14 | 株式会社ニコン | 処理装置、検出装置、システム及びプログラム |
JP7363962B2 (ja) | 2017-11-30 | 2023-10-18 | 株式会社ニコン | 処理装置、検出装置、システム及びプログラム |
JPWO2019107150A1 (ja) * | 2017-11-30 | 2020-12-03 | 株式会社ニコン | 検出装置、処理装置、装着物、検出方法、及び検出プログラム |
US11176661B2 (en) | 2018-10-30 | 2021-11-16 | Fujitsu Limited | Image processing apparatus and image processing method |
Also Published As
Publication number | Publication date |
---|---|
DE102006055893A1 (de) | 2008-05-29 |
JP4531069B2 (ja) | 2010-08-25 |
US7889193B2 (en) | 2011-02-15 |
DE102006005044B4 (de) | 2011-01-27 |
US20070182739A1 (en) | 2007-08-09 |
DE102006005044A1 (de) | 2007-08-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4531069B2 (ja) | 現実の対象物の画像と重ね合わされるように設計されたデータモデルを決定するための方法及びシステム | |
US9609307B1 (en) | Method of converting 2D video to 3D video using machine learning | |
JP6041838B2 (ja) | 現実環境内にバーチャルオブジェクトを描写する方法および装置 | |
US8270704B2 (en) | Method and apparatus for reconstructing 3D shape model of object by using multi-view image information | |
JP5133418B2 (ja) | 現実環境内にバーチャルオブジェクトを描写する方法および装置 | |
CN109816704A (zh) | 物体的三维信息获取方法和装置 | |
JP5777507B2 (ja) | 情報処理装置、情報処理方法、及びそのプログラム | |
US20130162643A1 (en) | Physical Three-Dimensional Model Generation Apparatus | |
US20100328308A1 (en) | Three Dimensional Mesh Modeling | |
CN110349247A (zh) | 一种基于语义理解的室内场景cad三维重建方法 | |
CN103310420B (zh) | 基于纹理与几何相似性的彩色图像空洞修复方法及*** | |
CN108648194A (zh) | 基于cad模型三维目标识别分割和位姿测量方法及装置 | |
CN106652037B (zh) | 一种人脸贴图处理方法及装置 | |
CN107369204A (zh) | 一种基于深度学习从单幅照片恢复出场景基本三维结构的方法 | |
CN115082254A (zh) | 一种变电站精益管控数字孪生*** | |
CN103761766A (zh) | 基于色调映射和图像平滑的三维物体模型纹理映射算法 | |
CN108898679A (zh) | 一种零部件序号自动标注的方法 | |
JP7078564B2 (ja) | 画像処理装置及びプログラム | |
Nguyen et al. | High-definition texture reconstruction for 3D image-based modeling | |
CN115063485B (zh) | 三维重建方法、装置及计算机可读存储介质 | |
CN115841546A (zh) | 一种场景结构关联的地铁站多视矢量仿真渲染方法及*** | |
KR102316111B1 (ko) | 빅데이터를 활용한 인공지능 기반 애니메이션 레이아웃 시스템 및 그 방법 | |
CN108830804A (zh) | 基于线扩展函数标准差的虚实融合模糊一致性处理方法 | |
CN115620033A (zh) | 用于检查物体的方法 | |
JP2021111375A (ja) | 現実のシーンのビデオフラックスの拡張 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090609 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20090901 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20090904 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20090929 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20091002 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20091109 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20091110 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20091112 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100112 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100412 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100511 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100608 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4531069 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130618 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |