JP5781682B2 - 共線変換ワープ関数を用いて第1の画像の少なくとも一部と第2の画像の少なくとも一部を位置合わせする方法 - Google Patents
共線変換ワープ関数を用いて第1の画像の少なくとも一部と第2の画像の少なくとも一部を位置合わせする方法 Download PDFInfo
- Publication number
- JP5781682B2 JP5781682B2 JP2014500263A JP2014500263A JP5781682B2 JP 5781682 B2 JP5781682 B2 JP 5781682B2 JP 2014500263 A JP2014500263 A JP 2014500263A JP 2014500263 A JP2014500263 A JP 2014500263A JP 5781682 B2 JP5781682 B2 JP 5781682B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- orientation
- warp function
- collinear
- coordinate system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 70
- 230000006870 function Effects 0.000 claims description 53
- 230000009466 transformation Effects 0.000 claims description 33
- 238000005259 measurement Methods 0.000 claims description 28
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims description 23
- 238000013519 translation Methods 0.000 claims description 18
- 230000005484 gravity Effects 0.000 claims description 15
- 230000003190 augmentative effect Effects 0.000 claims description 7
- 238000004590 computer program Methods 0.000 claims description 7
- 238000006243 chemical reaction Methods 0.000 claims description 4
- 238000005286 illumination Methods 0.000 claims description 4
- 230000003287 optical effect Effects 0.000 claims description 3
- 230000001131 transforming effect Effects 0.000 claims description 2
- 238000013459 approach Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 8
- 239000011159 matrix material Substances 0.000 description 7
- 238000005457 optimization Methods 0.000 description 6
- 238000012800 visualization Methods 0.000 description 6
- 238000010561 standard procedure Methods 0.000 description 4
- 230000015572 biosynthetic process Effects 0.000 description 2
- 238000001308 synthesis method Methods 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 238000000844 transformation Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 238000011524 similarity measure Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/18—Image warping, e.g. rearranging pixels individually
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/24—Aligning, centring, orientation detection or correction of the image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
- G06T2207/30208—Marker matrix
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
Description
W=
[p1 p2 p3]
[p4 p5 p6]
[p7 p8 1]
のように記載することができる。
u’=(p1u+p2v+p3)/(p7u+p8v+1)
v’=(p4u+p5v+p6)/(p7u+p8v+1)
により点x=[u,v]を第1の画像から第2の画像中の点x’=[u’,v’]に変換する。
[p1 p2 p3]
[p4 p5 p6]
[0 0 1]
で表すことができる。
u’=p1u+p2v+p3
v’=p4u+p5v+p6
により点[u,v]を第1の画像から第2の画像中の点[u’,v’]に変換する。
[1] C.Steger、Occlusion,clutter,and illumination invariant object recognition、Int.Arc.Photo、Remote Sensing,XXXIV、part 3A:345〜350、2002
[2] B.LucasおよびT.Kanade、An iterative image registration technique with an application to stereo vision、In Proceedings of the International Joint Conference on Artificial Intelligence、1981
[3] Wonwoo Lee他、 Point−and−Shoot for Ubiquitous Tagging on Mobile Phones、Proc.International Symposium on Mixed and Augmented Reality 2010
[4] Myung Hwangbo、Jun−Sik Kim、およびTakeo Kanade、Inertial−Aided KLT Feature Tracking for a Moving Camera、The 2009 IEEE/RSJ International Conference on Intelligent Robots and Systems
[5] Lobo,J、およびDias,J、Vision and Inertial Sensor Cooperation Using Gravity as a Vertical Reference、IEEE Transactions on Pattern Analysis and Machine Intelligence、Volume:25 Issue:12、1597〜1608ページ
[6] Simon BakerおよびIain Matthews、Equivalence and Efficiency of Image Alignment Algorithms、Proceedings of the 2001 IEEE Conference on Computer Vision and Pattern Recognition
[7] S.Hinterstoisser、V.Lepetit、S.Benhimane、P.Fua、およびN.Navab、Learning Real−Time Perspective Patch Rectification、International Journal of Computer Vision、2010
a.実環境の第1の画像および第1の画像に関連した座標系を用意するステップと、
b.実環境の第2の画像を用意するステップと、
c.実環境を基準にして取り込み装置の向きおよび/または距離の測定を行う一方、第2の画像を取り込むステップと、
d.第2の画像の少なくとも一部に関連した測定(measurements)から共線変換ワープ関数を決定するステップと、
e.対応する決定した共線変換ワープ関数を適用することにより第2の画像の少なくとも一部を変換するステップと、
f.第2の画像の変換された少なくとも一部および第1の画像の少なくとも一部の画素に基づいて、画像レジストレーション方法により第2の画像の変換された少なくとも一部と第1の画像の少なくとも一部を位置合わせするための第2のワープ関数であって、2次元画像座標軸における平行移動、均一な拡大縮小および面内回転をサポートする第2のワープ関数を決定するステップと、
g.共線変換ワープ関数および第2のワープ関数を用いて第2の画像の少なくとも一部と第1の画像の少なくとも一部を位置合わせするステップと
を含む方法が提供される。
Claims (23)
- 第1の画像の少なくとも一部と第2の画像の少なくとも一部を位置合わせする方法であって、
a.実環境の第1の画像(T)および前記第1の画像に関連した座標系を用意するステップと、
b.前記実環境の第2の画像(I)を用意するステップと、
c.前記実環境を基準にして取り込み装置(D)の向き(R)および/または距離(d1、d2、…、dN)の測定を行う一方、前記第2の画像(I)を取り込むステップと、
d.前記第2の画像(I)の少なくとも一部に関連した測定(measurements)から共線変換ワープ関数(P)を決定するステップと、
e.前記対応する決定した共線変換ワープ関数(P)を適用することにより前記第2の画像(I)の前記少なくとも一部を変換するステップと、
f.前記第2の画像の前記変換された少なくとも一部(Ip)および前記第1の画像(T)の前記少なくとも一部の画素に基づいて、画像レジストレーション方法により前記第2の画像の前記変換された少なくとも一部(Ip)と前記第1の画像(T)の前記少なくとも一部を位置合わせするための第2のワープ関数(A)であって、2次元画像座標軸における平行移動、均一な拡大縮小および面内回転をサポートする前記第2のワープ関数(A)を決定するステップと、
g.前記共線変換ワープ関数(P)および前記第2のワープ関数(A)を用いて前記第2の画像(I)の前記少なくとも一部と前記第1の画像(T)の前記少なくとも一部を位置合わせするステップと
を含む方法。 - 前記向き(R)の測定は、慣性センサ、加速度計、ジャイロスコープ、コンパス、あるいは機械式、電磁気式、音響式または光学式の追跡システムのうちの少なくとも1つによりもたらされる、請求項1に記載の方法。
- 前記距離(d1、d2、…、dN)の測定は、TOFカメラ、ステレオカメラ、無線信号の三角測量、位相差計側、または立体照明による手法を用いた装置のうちの少なくとも1つによりもたらされる、請求項1または2に記載の方法。
- 前記向き(R)の測定(the measurements of orientation)は、重力ベクトル(n)の測定に基づいて計算された2次元回転を包含する、請求項1から3の一項に記載の方法。
- 前記第1の画像(T)の前記少なくとも一部は、前記測定した重力ベクトル(n)に対して知られた向きに配置された物理的対象に対応する、請求項4に記載の方法。
- 前記共線変換ワープ関数(P)は、前記測定した重力ベクトル(n)に対して前記知られた向きにある仮想像平面(VIP)に関連している、請求項5に記載の方法。
- 前記向き(R)の測定(the measurements of orientation (R))は、前記実環境を基準にした取り込み装置(D)の3次元回転を包含する一方、前記取り込み装置により前記第2の画像(I)を取り込む、請求項1から3の一項に記載の方法。
- 前記向き(R)の測定および/または前記距離(d1、d2、…、dN)の測定(themeasurements of orientation (R) and/or distance (d1、d2、…、dN))から、前記第1の画像に関連した前記座標系に対しての取り込み装置(D)の前記向きが、ステップd)の前記共線変換ワープ関数(P)の決定のために計算され、かつ、使用される、請求項1から7の一項に記載の方法。
- 前記共線変換ワープ関数(P)は、前記座標系に揃えられた仮想像平面(VIP)に関連している、請求項8に記載の方法。
- 前記距離の測定(the measurements of distance)からさらに、物理的対象に対する前記取り込み装置(D)の前記距離(d1、d2、…、dN)が、前記座標系中の前記取り込み装置の1次元平行移動を計算するために決定される、請求項8または9に記載の方法。
- 前記向きは、前記第2の画像(I)中のN点のセットの前記距離(d1、d2、…、dN)の測定(the measurements of distance d1、d2、…、dN)から決定され、Nが少なくとも3である、請求項8から10の一項に記載の方法。
- 前記第1の画像(T)および/または第2の画像(I)は、区分的平面と仮定される対象の画像である、請求項1から11の一項に記載の方法。
- 前記第2のワープ関数(A)は、アフィンワープ関数である、請求項1から12の一項に記載の方法。
- 前記画像レジストレーション方法は、反復最小化プロセスに基づいており、前記第1の画像(T)中の第1の画素セットは、前記第2の画像(I)中の計算した画素セットと比較され、前記比較に用いた前記第2の画像中の前記計算した画素セットは、反復ごとに変化する、請求項1から13の一項に記載の方法。
- 前記画像レジストレーション方法における前記比較は、画像の強度に差異に基づいている、請求項14に記載の方法。
- 前記第2のワープ関数(A)のパラメータの初期推定は、前記反復最小化プロセスへ与えられる、請求項14または15に記載の方法。
- 前記第2のワープ関数(A)の前記パラメータの初期推定は、前記第1の画像(T)の取り込みと前記第2の画像(I)の取り込みの間の前記取り込み装置(D)の動きの推定を用いて決定される、請求項16に記載の方法。
- ステップc)において、
少なくとも第3の画像および関連した座標系が、さらに用意され、
前記第2の画像(I)は、前記第1の画像(T)の対象および前記少なくとも第3の画像の対象を少なくとも一部含み、
ステップd)〜g)は、前記第1の画像(I)および前記少なくとも第3の画像について個々に実行される、
請求項1から17の一項に記載の方法。 - 前記第1の画像(T)および/または少なくとも第3の画像、ならびにそれらの関連した座標系は、オフラインで取得される、請求項18に記載の方法。
- 前記第1の画像(T)および/または少なくとも第3の画像、ならびにそれらの関連した座標系は、オンラインで取得され、かつ/または、オンラインで更新される、請求項18または19に記載の方法。
- 前記第2の画像(I)の前記少なくとも一部の前記位置合わせの結果は、前記取り込み装置(D)の姿勢の決定に用いられる、請求項1から20の一項に記載の方法。
- 前記取り込み装置(D)の前記決定された姿勢は、拡張現実アプリケーションに使用される、請求項21に記載の方法。
- コンピュータプログラムであって、デジタルコンピュータの内部メモリに読み込まれるようになされ、前記コンピュータプログラムが、前記コンピュータ上で実行しているときに、請求項1から22のいずれかに記載の方法を実行するソフトウェアコードセクションを含むコンピュータプログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/EP2011/054456 WO2012126522A1 (en) | 2011-03-23 | 2011-03-23 | Method for registering at least one part of a first and second image using a collineation warping function |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014514539A JP2014514539A (ja) | 2014-06-19 |
JP5781682B2 true JP5781682B2 (ja) | 2015-09-24 |
Family
ID=44625521
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014500263A Expired - Fee Related JP5781682B2 (ja) | 2011-03-23 | 2011-03-23 | 共線変換ワープ関数を用いて第1の画像の少なくとも一部と第2の画像の少なくとも一部を位置合わせする方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US9213908B2 (ja) |
EP (1) | EP2689393A1 (ja) |
JP (1) | JP5781682B2 (ja) |
WO (1) | WO2012126522A1 (ja) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9007428B2 (en) * | 2011-06-01 | 2015-04-14 | Apple Inc. | Motion-based image stitching |
US9305361B2 (en) * | 2011-09-12 | 2016-04-05 | Qualcomm Incorporated | Resolving homography decomposition ambiguity based on orientation sensors |
US9147226B2 (en) * | 2012-09-10 | 2015-09-29 | Nokia Technologies Oy | Method, apparatus and computer program product for processing of images |
US10733798B2 (en) * | 2013-03-14 | 2020-08-04 | Qualcomm Incorporated | In situ creation of planar natural feature targets |
US9818150B2 (en) | 2013-04-05 | 2017-11-14 | Digimarc Corporation | Imagery and annotations |
WO2016050290A1 (en) | 2014-10-01 | 2016-04-07 | Metaio Gmbh | Method and system for determining at least one property related to at least part of a real environment |
WO2017115271A1 (en) | 2015-12-30 | 2017-07-06 | Cimagine Media Ltd. | Method of plane tracking |
EP3193305B1 (en) * | 2016-01-12 | 2018-09-12 | Continental Automotive GmbH | Method and device for displaying a front-view of a vehicle's surrounding and respective vehicle |
US10438362B2 (en) * | 2017-05-31 | 2019-10-08 | Here Global B.V. | Method and apparatus for homography estimation |
EP3564899B1 (en) * | 2018-04-30 | 2020-12-16 | Tata Consultancy Services Limited | Method and system for frame stitching based image construction in an indoor environment |
Family Cites Families (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5175808A (en) * | 1989-09-12 | 1992-12-29 | Pixar | Method and apparatus for non-affine image warping |
JP2500654B2 (ja) * | 1992-11-20 | 1996-05-29 | 日本電気株式会社 | 3次元形状相対位置推定装置 |
US5815411A (en) * | 1993-09-10 | 1998-09-29 | Criticom Corporation | Electro-optic vision system which exploits position and attitude |
JP4262830B2 (ja) | 1999-05-17 | 2009-05-13 | 岡本 真雅紀 | 三次元対象体画像解析方法及びその関連技術 |
JP4453119B2 (ja) * | 1999-06-08 | 2010-04-21 | ソニー株式会社 | カメラ・キャリブレーション装置及び方法、画像処理装置及び方法、プログラム提供媒体、並びに、カメラ |
JP4169462B2 (ja) | 1999-08-26 | 2008-10-22 | 株式会社リコー | 画像処理方法及び装置、デジタルカメラ、画像処理システム、並びに、画像処理プログラムを記録した記録媒体 |
US20030086002A1 (en) * | 2001-11-05 | 2003-05-08 | Eastman Kodak Company | Method and system for compositing images |
JP2004053447A (ja) | 2002-07-22 | 2004-02-19 | Nippon Telegr & Teleph Corp <Ntt> | 車両計測装置および方法 |
WO2004038657A2 (en) | 2002-10-22 | 2004-05-06 | Artoolworks | Tracking a surface in a 3-dimensional scene using natural visual features of the surface |
US7203384B2 (en) | 2003-02-24 | 2007-04-10 | Electronic Scripting Products, Inc. | Implement for optically inferring information from a planar jotting surface |
JP2005049999A (ja) * | 2003-07-30 | 2005-02-24 | Ricoh Co Ltd | 画像入力装置、画像入力方法、この方法を情報処理装置上で実行可能に記述されたプログラム、及びこのプログラムを記憶した記憶媒体 |
US7110100B2 (en) | 2003-11-04 | 2006-09-19 | Electronic Scripting Products, Inc. | Apparatus and method for determining an inclination of an elongate object contacting a plane surface |
US7268956B2 (en) | 2003-11-24 | 2007-09-11 | Electronic Scripting Products, Inc. | Solid catadioptric lens with two viewpoints |
US7038846B2 (en) | 2003-11-24 | 2006-05-02 | Electronic Scripting Products, Inc. | Solid catadioptric lens with a single viewpoint |
US7088440B2 (en) | 2003-12-22 | 2006-08-08 | Electronic Scripting Products, Inc. | Method and apparatus for determining absolute position of a tip of an elongate object on a plane surface with invariant features |
US7961909B2 (en) | 2006-03-08 | 2011-06-14 | Electronic Scripting Products, Inc. | Computer interface employing a manipulated object with absolute pose detection component and a display |
US9229540B2 (en) | 2004-01-30 | 2016-01-05 | Electronic Scripting Products, Inc. | Deriving input from six degrees of freedom interfaces |
US7729515B2 (en) | 2006-03-08 | 2010-06-01 | Electronic Scripting Products, Inc. | Optical navigation apparatus using fixed beacons and a centroid sensing device |
US8542219B2 (en) | 2004-01-30 | 2013-09-24 | Electronic Scripting Products, Inc. | Processing pose data derived from the pose of an elongate object |
US7826641B2 (en) | 2004-01-30 | 2010-11-02 | Electronic Scripting Products, Inc. | Apparatus and method for determining an absolute pose of a manipulated object in a real three-dimensional environment with invariant features |
US7023536B2 (en) | 2004-03-08 | 2006-04-04 | Electronic Scripting Products, Inc. | Apparatus and method for determining orientation parameters of an elongate object |
US7161664B2 (en) | 2004-04-13 | 2007-01-09 | Electronic Scripting Products, Inc. | Apparatus and method for optical determination of intermediate distances |
US7113270B2 (en) | 2004-06-18 | 2006-09-26 | Electronics Scripting Products, Inc. | Determination of an orientation parameter of an elongate object with a scan beam apparatus |
JP4914019B2 (ja) * | 2005-04-06 | 2012-04-11 | キヤノン株式会社 | 位置姿勢計測方法及び装置 |
US7397933B2 (en) * | 2005-05-27 | 2008-07-08 | Microsoft Corporation | Collusion resistant desynchronization for digital video fingerprinting |
DE102005025470B4 (de) | 2005-06-02 | 2007-12-20 | Metaio Gmbh | Verfahren und System zur Ermittlung der Position und Orientierung einer Kamera relativ zu einem realen Objekt |
US7697839B2 (en) * | 2006-06-30 | 2010-04-13 | Microsoft Corporation | Parametric calibration for panoramic camera systems |
JP2008309595A (ja) | 2007-06-13 | 2008-12-25 | Horiba Ltd | オブジェクト認識装置及びそれに用いられるプログラム |
DE102007055252A1 (de) * | 2007-11-16 | 2009-05-28 | Vision N Gmbh | Verfahren zur Bestimmung der Abstände eines Objekts innerhalb einer Struktur |
DE102008023439B4 (de) * | 2008-05-14 | 2011-02-17 | Christian-Albrechts-Universität Zu Kiel | Augmented Reality Fernglas zur Navigationsunterstützung |
US20120236133A1 (en) * | 2011-03-18 | 2012-09-20 | Andrew Charles Gallagher | Producing enhanced images from anaglyph images |
JP5914045B2 (ja) * | 2012-02-28 | 2016-05-11 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
US8970709B2 (en) | 2013-03-13 | 2015-03-03 | Electronic Scripting Products, Inc. | Reduced homography for recovery of pose parameters of an optical apparatus producing image data with structural uncertainty |
-
2011
- 2011-03-23 US US14/006,859 patent/US9213908B2/en active Active
- 2011-03-23 WO PCT/EP2011/054456 patent/WO2012126522A1/en active Application Filing
- 2011-03-23 JP JP2014500263A patent/JP5781682B2/ja not_active Expired - Fee Related
- 2011-03-23 EP EP11710491.9A patent/EP2689393A1/en not_active Withdrawn
Also Published As
Publication number | Publication date |
---|---|
JP2014514539A (ja) | 2014-06-19 |
EP2689393A1 (en) | 2014-01-29 |
CN103597513A (zh) | 2014-02-19 |
US9213908B2 (en) | 2015-12-15 |
US20140086494A1 (en) | 2014-03-27 |
WO2012126522A1 (en) | 2012-09-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5781682B2 (ja) | 共線変換ワープ関数を用いて第1の画像の少なくとも一部と第2の画像の少なくとも一部を位置合わせする方法 | |
CN109643465B (zh) | 用于创建混合现实环境的***、方法、显示装置、介质 | |
Kurz et al. | Gravity-aware handheld augmented reality | |
US8326021B2 (en) | Measurement apparatus and control method | |
US9501872B2 (en) | AR image processing apparatus and method technical field | |
JP6418449B2 (ja) | 画像処理装置および画像処理方法、並びにプログラム | |
Song et al. | Survey on camera calibration technique | |
KR20150013709A (ko) | 컴퓨터 생성된 3d 객체들 및 필름 카메라로부터의 비디오 공급을 실시간으로 믹싱 또는 합성하기 위한 시스템 | |
JP2015535980A (ja) | 特に装置に係る視覚ベースの位置決めに使用される画像処理方法 | |
Kurz et al. | Handheld augmented reality involving gravity measurements | |
Zhu et al. | Video-based outdoor human reconstruction | |
Yu et al. | A tracking solution for mobile augmented reality based on sensor-aided marker-less tracking and panoramic mapping | |
Jun et al. | An extended marker-based tracking system for augmented reality | |
US20230014421A1 (en) | 6DoF INSIDE-OUT TRACKING GAME CONTROLLER INITIAL REGISTRATION | |
Simon | Tracking-by-synthesis using point features and pyramidal blurring | |
Kim et al. | IMAF: in situ indoor modeling and annotation framework on mobile phones | |
US11770551B2 (en) | Object pose estimation and tracking using machine learning | |
Pressigout et al. | Model-free augmented reality by virtual visual servoing | |
Chandaria et al. | The MATRIS project: real-time markerless camera tracking for augmented reality and broadcast applications | |
WO2021111613A1 (ja) | 3次元地図作成装置、3次元地図作成方法、及び3次元地図作成プログラム | |
JP2001245323A (ja) | 3次元入力方法および装置 | |
Kurz et al. | Benchmarking inertial sensor-aided localization and tracking methods | |
Hwang et al. | 3D modeling and accuracy assessment-a case study of photosynth | |
Xu et al. | Robotic visual servoing using fringe projection profilometry | |
CN103597513B (zh) | 利用直射变换翘曲函数配准第一和第二图像的至少一个部分的方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20141009 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20141021 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150121 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150617 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150715 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5781682 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |