JP5781682B2 - 共線変換ワープ関数を用いて第1の画像の少なくとも一部と第2の画像の少なくとも一部を位置合わせする方法 - Google Patents

共線変換ワープ関数を用いて第1の画像の少なくとも一部と第2の画像の少なくとも一部を位置合わせする方法 Download PDF

Info

Publication number
JP5781682B2
JP5781682B2 JP2014500263A JP2014500263A JP5781682B2 JP 5781682 B2 JP5781682 B2 JP 5781682B2 JP 2014500263 A JP2014500263 A JP 2014500263A JP 2014500263 A JP2014500263 A JP 2014500263A JP 5781682 B2 JP5781682 B2 JP 5781682B2
Authority
JP
Japan
Prior art keywords
image
orientation
warp function
collinear
coordinate system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014500263A
Other languages
English (en)
Other versions
JP2014514539A (ja
Inventor
ベンヒマネ,ゼリム
クルツ,ダニエル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Metaio GmbH
Original Assignee
Metaio GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Metaio GmbH filed Critical Metaio GmbH
Publication of JP2014514539A publication Critical patent/JP2014514539A/ja
Application granted granted Critical
Publication of JP5781682B2 publication Critical patent/JP5781682B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/18Image warping, e.g. rearranging pixels individually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • G06T2207/30208Marker matrix
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Description

本発明は、共線変換ワープ関数を用いて第1の画像の少なくとも一部と第2の画像の少なくとも一部を位置合わせする方法に関する。さらに、本発明は、この方法を実施するためのソフトウェアコードセクションを含むコンピュータプログラム製品に関する。
このような方法は、拡張現実(AR)アプリケーションなどのコンピュータビジョンアプリケーションに必要とされることが多い。例えば、第1の画像Tをテンプレート画像とする場合、コンピュータビジョンの分野における多くのアプリケーションは、現在のカメラ画像である第2の画像Iの少なくとも一部を第1の画像Tに空間的に位置合わせすることを必要とする。例として、パノラマ合成、および例えばビデオシースルー型拡張現実アプリケーションのためのカメラ姿勢推定が挙げられる。いかなるレンズ歪もない完全なピンホールカメラを仮定するとき、平坦面に対応するテンプレートの任意の一部を現在のカメラ画像のその対応する位置に変換することは、3D平行移動、それに続く3D回転、および最後に像平面への透視投影で構成される。この変換は、テンプレート上の2Dの点とカメラ画像中の2Dの対応する点との間の透視変換を表す共線変換Wを用いて十分に説明することができる。
共線変換は、可逆である(3×3)の行列により表されることが多い。この行列は、ある縮尺以下(up to a scale)で定義され、8自由度を有し、
W=
[p1 p2 p3]
[p4 p5 p6]
[p7 p8 1]
のように記載することができる。
共線変換は、1対1かつオントゥのワープ(a one to one and onto warping)を定める。共線変換ワープ関数は、以下の通りに、すなわち、
u’=(p1u+p2v+p3)/(p7u+p8v+1)
v’=(p4u+p5v+p6)/(p7u+p8v+1)
により点x=[u,v]を第1の画像から第2の画像中の点x’=[u’,v’]に変換する。
このようなワープは、共線性、同時性、接次数(order of contact)、および複比(cross ratio)を保存する。計算コストの観点でワープを高価にさせるワープ点当たり2つの分数部分(division)がある。
対応する行列の項目p7およびp8がゼロに等しいとき、共線変換ワープは、アフィンワープと呼ばれる。そこで、共線変換は、行列A=
[p1 p2 p3]
[p4 p5 p6]
[0 0 1]
で表すことができる。
したがって、アフィンワープ関数は、以下の通りに、すなわち、
u’=p1u+p2v+p3
v’=p4u+p5v+p6
により点[u,v]を第1の画像から第2の画像中の点[u’,v’]に変換する。
この場合、アフィンワープのための操作数は、標準的な共線変換ワープ関数についての操作数よりも少ないことに留意されたい。特に、アフィンワープ関数中に分数部分(division)がないため、アフィンワープは、計算能力が限られたデバイス上でより高速である。
加えて、とりわけ、アフィンワープは、並列性および距離同士の比率を保存する。
第1の画像および第2の画像が、像平面がある平坦面に平行であるように取得されるとき、その平坦面に対応する共線変換ワープは、アフィンワープである。
当該技術分野では、以下の参考文献が、本分野において出版されている。
[1] C.Steger、Occlusion,clutter,and illumination invariant object recognition、Int.Arc.Photo、Remote Sensing,XXXIV、part 3A:345〜350、2002
[2] B.LucasおよびT.Kanade、An iterative image registration technique with an application to stereo vision、In Proceedings of the International Joint Conference on Artificial Intelligence、1981
[3] Wonwoo Lee他、 Point−and−Shoot for Ubiquitous Tagging on Mobile Phones、Proc.International Symposium on Mixed and Augmented Reality 2010
[4] Myung Hwangbo、Jun−Sik Kim、およびTakeo Kanade、Inertial−Aided KLT Feature Tracking for a Moving Camera、The 2009 IEEE/RSJ International Conference on Intelligent Robots and Systems
[5] Lobo,J、およびDias,J、Vision and Inertial Sensor Cooperation Using Gravity as a Vertical Reference、IEEE Transactions on Pattern Analysis and Machine Intelligence、Volume:25 Issue:12、1597〜1608ページ
[6] Simon BakerおよびIain Matthews、Equivalence and Efficiency of Image Alignment Algorithms、Proceedings of the 2001 IEEE Conference on Computer Vision and Pattern Recognition
[7] S.Hinterstoisser、V.Lepetit、S.Benhimane、P.Fua、およびN.Navab、Learning Real−Time Perspective Patch Rectification、International Journal of Computer Vision、2010
変換を求めるための上述の標準的な手法を図1に示す。
第1のステップS1では、1つまたは複数のテンプレートまたは参照画像(第1の画像)が、カメラにより取り込まれるか、または、ソースから読み込まれる。次いで、まず、現在の画像(第2の画像)が、取り込まれるか、または、読み込まれる(ステップS2)。次のステップS3では、実際の推定が行われる。現在の画像の少なくとも一部とテンプレート画像中の対応する位置を位置合わせする共線変換ワープ関数を求めなければならない。数ある技法の中でも、これは、テンプレート画像中の第1の画素セットが、現在のカメラ画像中の計算した画素セットと比較され、比較に使用されるカメラ画像中の計算した画素セットが反復ごとに変化する反復最小化プロセスにおいて行うことができる(例えば[2]参照)。
カメラ画像の少なくとも一部をテンプレート画像の少なくとも一部に位置合わせするための数学的に全ての手法は、8次元非線形最適化を実行する。目標は、テンプレート画像に対応する全ての画素にわたってのテンプレートとワープした現在の画像との間の類似尺度の極値になるワープパラメータのベクトルを求めることである。これは、通常、非常に高価な計算タスクである。
最後に、ステップS4において、求めた共線変換ワープ関数Wがアプリケーションに使用される。
標準的な手法では、以下の制限が与えられる。
現在の画像の少なくとも一部をテンプレート画像と位置合わせする共線変換ワープ関数を求めるために必要とされる8次元非線形最適化は、高価であり、それに依存するアプリケーションを処理能力が限られたモバイル機器に関して特に困難にさせる。Lucas−Kanade[2]などの反復手法では、テンプレートとの類似性を計算するために、現在の画像中の画素の高価な非線形ワープをあらゆる反復において計算しなければならない。
計算の複雑さに加えて、オフライン段階で多数の可能な方法でテンプレートを変換する手法では、メモリ消費は途方もないものになり得る。事前計算される変換の回数、およびメモリ消費は、自由度(DoF)に比例して(指数的に)増加する。任意の剛体変換としては、6DoF(3D平行移動および3D回転)がある。このような手法は、現在の画像ごとに現在の画像に最も近い事前計算される変換を求めようとする(例えば[1]参照)。膨大な量の必要な事前計算されるデータは、モバイルフォンなどのメモリの限られたデバイス上でそれらのデータを実行可能でなくさせる。
弱透視投影が拡大縮小された直交投影(すなわち、線形変換)による透視画に近づくといったすでに提案された解決策が存在する。このように近づけることにより、非線形ワープより計算が一般的に高速である線形ワープが可能となるが、テンプレートが光軸の近くに位置し、現在の画像中でカメラから遠く離れている場合、画像レジストレーションのために使用できるにすぎない。
アフィン変換は、平行移動、面内回転、および拡大縮小をサポートするだけである。全ての点がある平面が像平面に常に平行でなければならないので、このことは再び、高速線形ワープとなるが、適用範囲はごく限られている。
例えば、[3]の著者らは、加速度計により測定される携帯型取り込み装置の向きを使用して、著者らがテンプレート画像として使用する画像を調整する。しかし、現在のカメラ画像とテンプレート画像のアライメント調整中に、著者らは、装置の向きを全く考慮していない。
[4]の著者らは、カメラに取り付けられたジャイロスコープを使用して、KLTトラッカにおいて現在の画像から次の現在の画像へ追跡する特徴の位置および向きを予測する。これは、高速なカメラの動きに対して特に有用である。
[5]の著者らは、ステレオカメラに取り付けられた慣性センサを使用して、特徴が床面にあるか、ないかを判定する。また、著者らは、部屋の角などの床面からの垂直な特徴を検出することができる。
慣性センサを上記のコンピュータビジョンと組み合わせる手法は、カメラ画像の少なくとも一部をテンプレート画像と位置合わせすることを目的とするものではなく、アフィン変換および弱透視投影は、この課題に近づくことをもたらすにすぎない。これらは、非常に特別な場合に有用であるにすぎない。
したがって、より低い計算コストで標準的な手法と同様の結果をもたらす、現在のカメラ画像の少なくとも一部を任意のカメラの位置および向きについてのテンプレート画像の少なくとも一部に位置合わせするのに必要な共線変換ワープ関数を得るための手法を有することが望ましい。
本発明の一態様によれば、第1の画像の少なくとも一部と第2の画像の少なくとも一部を位置合わせする方法であって、
a.実環境の第1の画像および第1の画像に関連した座標系を用意するステップと、
b.実環境の第2の画像を用意するステップと、
c.実環境を基準にして取り込み装置の向きおよび/または距離の測定を行う一方、第2の画像を取り込むステップと、
d.第2の画像の少なくとも一部に関連した測定(measurements)から共線変換ワープ関数を決定するステップと、
e.対応する決定した共線変換ワープ関数を適用することにより第2の画像の少なくとも一部を変換するステップと、
f.第2の画像の変換された少なくとも一部および第1の画像の少なくとも一部の画素に基づいて、画像レジストレーション方法により第2の画像の変換された少なくとも一部と第1の画像の少なくとも一部を位置合わせするための第2のワープ関数であって、2次元画像座標軸における平行移動、均一な拡大縮小および面内回転をサポートする第2のワープ関数を決定するステップと、
g.共線変換ワープ関数および第2のワープ関数を用いて第2の画像の少なくとも一部と第1の画像の少なくとも一部を位置合わせするステップと
を含む方法が提供される。
このように、本発明は、取り込み装置の測定した向き(measured orientation)を組み込むことにより、取り込まれた現在の画像をテンプレート画像に空間的に位置合わせするのに必要な共線変換ワープ関数Wを、上述のように求めることの複雑さを低減することを提案する。特に、共線変換ワープ関数Wを、測定した向きから直接計算できる共線変換ワープ関数Pと、それに続いて推定される必要があるアフィン変換Aと、に分解することができる。以下より詳細に述べる通り、必要とされる評価パラメータがより少ないため、Aを求めることはWを求めることよりも安価でより安定的である。
一実施形態によれば、向きの測定は、慣性センサ、加速度計、ジャイロスコープ、コンパス、あるいは機械式、電磁気式、音響式または光学式の追跡システムのうちの少なくとも1つによりもたらされる。本発明の内容では、慣性センサは、磁力計(例えば、コンパス)、モーションセンサ/回転センサ(加速度計/ジャイロスコープ)、重力センサ、およびそのような情報を与える他のセンサの任意の組み合わせを用いることで、環境に関して対象または装置の位置および/または向きを含むセンサ情報を例えば連続的に提供することができる。
さらなる実施形態によれば、距離の測定は、TOFカメラ、ステレオカメラ、無線信号の三角測量、位相差計側、または立体照明による手法を用いた装置のうちの少なくとも1つによりもたらされる。距離情報を提供するセンサは、光が可視または赤外線である、立体照明による手法を用いた装置であってもよい(例えば、Microsoftの既知のKinectカメラ)。
一実施形態によれば、向きの測定(the measurements of orientation (R))は、重力ベクトルの測定に基づいて計算された2次元回転を包含する。例えば、第1の画像の少なくとも一部は、測定した重力ベクトルに対して知られた向きに配置された物理的対象に対応する。そして、共線変換ワープ関数は、測定した重力ベクトルに対して知られた向きにある仮想像平面に関連していてもよい。
別の実施形態によれば、向きの測定(the measurements of orientation (R))は、実環境を基準にした取り込み装置の3次元回転を包含する一方、取り込み装置により第2の画像を取り込む。
例えば、向きの測定および/または距離の測定(the measurements of orientation and/or distance)から、第1の画像に関連した座標系に対しての取り込み装置の向きが、ステップd)の共線変換ワープ関数の決定のために計算され、かつ、使用される。共線変換ワープ関数は、座標系に揃えられた仮想像平面に関連していてもよい。
さらなる発展例によれば、距離の測定(the measurements of distance)からさらに、物理的対象に対する取り込み装置の距離が、座標系中の取り込み装置の1次元平行移動を計算するために決定される。
例えば、向きは、第2の画像中のN点のセットの距離の測定(the measurements of distance)から決定され、Nが少なくとも3である。
一実施形態によれば、第1の画像および/または第2の画像は、区分的平面と仮定される3次元の物理的対象の画像である。例えば、第2のワープ関数は、アフィンワープ関数である。
さらなる実施形態によれば、画像レジストレーション方法は、反復最小化プロセスに基づいており、第1の画像中の第1の画素セットは、第2の画像中の計算した画素セットと比較され、比較に用いた第2の画像中の計算した画素セットは、反復ごとに変化する。例えば、画像レジストレーションにおける比較は、画像の強度の差異に基づいている。このようにして、測光誤差を計算することができる。この誤差は、パラメータセットの更新を検索する非線形最適化の費用関数に用いることができる。
第2のワープ関数は、[6]に記載されるように、逆合成法、逆加算法、前方合成法、または前方加算法などの傾斜降下を用いた方法で決定することができる。さらに、第2のワープ関数は、学習に基づいた方法で決定することができ、そこでは、テンプレート画像(第1の画像)の異なるビューが、事前計算されており、現在の変換に最も近い事前計算された変換が、[1]または[7]に記載されるように決定される。
特に、第2のワープ関数のパラメータの初期推定が、反復最小化プロセスへ与えられるようにしてもよい。例えば、ワープ関数のパラメータの初期推定が、第1の画像の取り込みと第2の画像の取り込みの間の取り込み装置の動きの推定を用いて決定される。
本発明の一実施形態によれば、ステップc)において、少なくとも第3の画像(例えば、1つまたは複数のさらなるテンプレート画像)およびそれぞれの関連した座標系が、さらに用意され、第2の画像は、第1の画像の対象および少なくとも第3の画像の対象を少なくとも一部含み、ステップd)〜g)は、第1の画像および少なくとも第3の画像について個々に実行される。
例えば、第1の画像および/または少なくとも第3の画像、ならびにそれらの関連した座標系は、オフラインで取得される。
別の実施形態によれば、第1の画像および/または少なくとも第3の画像、ならびにそれらの関連した座標系は、オンラインで取得され、かつ/または、オンラインで更新される。この場合には、水平面上にある同じ平面にある平坦なテンプレートと現在の画像中の対応する領域の間の変換を求めることに加えて、2つ以上の現在の画像中の同じ平面にある水平領域の間の変換は、同じ方法で求めることができる。しかし、全ての画像が、仮想像平面へ投影されることが必要である。
これにより、床または天井のパノラマを得る画像合成が可能になる。興味深い特性は、合成に使用される平面上にない点、例えば、床上にある小さな対象、または天井にあるランプは、容易に特定できるということである。なぜなら、それらがカバーする画素の見かけは、投影したカメラ画像において、カメラの位置に応じて異なる一方で、平面上にある全ての点は、その見かけを理想的に維持するためである。これは、床面の自動高密度分割に用いることができる。
本発明の可能な実施では、第2の画像の少なくとも一部の位置合わせの結果は、取り込み装置の姿勢の決定に用いられる。例えば、取り込み装置の決定された姿勢は、拡張現実アプリケーションに使用される。
本発明の別の態様は、コンピュータプログラムであって、デジタルコンピュータの内部メモリに読み込まれるようになされ、コンピュータプログラムがコンピュータ上で実行しているときに、本発明による方法を実行するソフトウェアコードセクションを含むコンピュータプログラムにも関連している。
次に、添付図面と併せて例示的な実施形態の以下の説明を参照して本発明を説明する。
画像レジストレーションについての標準的な手法のフロー図である。 本発明の一実施形態による画像レジストレーションについての例示的な手法のフロー図である。 本発明の一実施形態による少なくとも第3の画像との画像レジストレーションについての例示的な手法のフロー図である。 知られた3DoFのカメラの向きおよび知られた任意のテンプレートの向きを用いて、本発明の一実施形態によるカメラにより取り込まれるテンプレート画像と現在の画像を位置合わせするプロセスの視覚化を示す図である。 知られた2DoFのカメラの向きおよび 水平にされたテンプレートを用いて、本発明の一実施形態によるカメラにより取り込まれたテンプレート画像と現在の画像を位置合わせする別のプロセスの視覚化を示す図である。 深さ感知カメラおよび知られていない任意のテンプレートの向きを用いて、本発明の一実施形態によるカメラにより取り込まれたテンプレート画像と現在の画像を位置合わせする別のプロセスの視覚化を示す図である。
添付の図面を参照して、本発明の態様による方法の実施形態をより詳細に説明する。以下の説明は、本発明による方法の態様の可能性のある実施の一例にすぎず、その方法またはステップは、第1の画像と第2の画像の位置合わせが行われる任意の他の分野または応用に使用することもできることを当業者は理解されよう。
以下には、固有パラメータ、すなわち内部カメラパラメータの推定を伴う実環境の画像を取り込むためのカメラなどの取り込み装置Dが提供されることが想定される。カメラの向きRの測定を直接送り出す、または、環境中のおよび画像に取り込まれた少なくとも3点の測定した距離から決定されるカメラの向きRの測定を送り出す、装置が取り付けられるている。発明者らは、現在のカメラ画像IをテンプレートTに空間的に位置合わせすることを意図する。以下に、発明者らは、取り込み装置Dの測定した向き(measured orientation)Rを組み込むことによりTとIの視覚による位置合わせの複雑さを低減する手段を提案する。明確で読み易くするために、本説明は、平面物体の垂直正面図を表すテンプレート画像を取り扱い、テンプレートT全体をIにおける対応する画素に位置合わせすることを目標とする。しかし、この方法は、区分的平面とみなすことができるターゲットに一般化することもできる。これは、例えば、テンプレート画像の一部を物理的対象の局所的な平坦領域に関係付けることにより簡単に行うことができる。
以下では、本発明の一実施形態による画像レジストレーションについての例示的な手法のフロー図を示す図2を参照する。図2は、概して手法を示しており、これは、図4〜図6に示されるように例によってさらに説明される。平坦なテンプレートTの少なくとも一部と任意の視野角の下でとられる現在のカメラ画像Iのその対応する位置とを位置合わせする共線変換ワープ関数Wを求める本発明の態様による手法は、ステップS1において、関連した座標系CSを用いて第1の画像Tをテンプレートとしてまず取り込むか、または、読み込む。ステップS2では、現在のカメラ画像としての第2の画像Iが、読み込まれるか、または、取り込まれる。ステップS3では、取り込み装置(すなわちカメラ)の向きが測定され、または、第2の画像が得られたときの向きが読み込まれる。ステップS4において、装置の向きR、座標系CSおよび第2の画像Iを使用して、仮想像平面VIPへの第2の画像Iの投影を計算する。この変換は、カメラの向きRおよびCSの関数である共線変換ワープ関数Pを用いて行われる。
変換した画像Ipを第1の画像Tと位置合わせするための変換は、線形であり、アフィンホモグラフィを用いて説明することができる。ステップS5において、このホモグラフィAが推定される(例えばLucas Kanade[2]の知られたアルゴリズムを用いて、例えば、反復最小化プロセスの中で計算される)。やはり、これを行うために多くの手法が存在する。しかし、ホモグラフィAは、アフィンホモグラフィであるので、ホモグラフィAの推定は、標準的な手法を参照した上述したような共線変換ワープ関数の推定よりも、計算がより単純である。以下のステップS6では、元の現在の画像の少なくとも一部を変換する共線変換ワープ関数Wは、PとAの組み合わせとして計算される。最後に、ステップS7において、拡張現実アプリケーションなどのアプリケーションは、この投影変換Wを使用する。ステップS5とステップS6の両方において、位置合わせは、どちらかの方向にワープすることにより実現することができることが当業者には理解されよう。例えば、ステップS5では、Aは、変換した画像Ipが第1の画像Tと位置合わせされるように決定することができ、またはAの逆は、第1の画像Tを変換した画像Ipに位置合わせすることにより決定することができる。
少なくとも第3の画像T3および関連した座標系CS3がさらに与えられ、第3の画像が追加のテンプレート画像である本発明の一実施形態では、図2中のフロー図は、図3中に示されるように拡張される。図3のステップS1では、第1の画像Tおよびその関連した座標系CSに加え、少なくとも第3の画像T3と関連した座標系CS3が与えられる。前述のように、図3のステップS2およびステップS3では、第2の画像Iが取り込まれるか、または、読み込まれ、取り込み装置Dの向きRが測定されるか、または、読み込まれる。次いで、ステップS4、S5およびS6において、IおよびRが、現在の画像Iをテンプレート画像と位置合わせするコアアルゴリズムに与えられる。各テンプレート画像と関連した座標系、すなわち第1の画像および少なくとも第3の画像は、ステップS4〜S6を行うコアアルゴリズムのインスタンスにより処理される。結果として得られる共線変換ワープ関数W、W3、…は、最終的に、ステップS7においてアプリケーションに使用される。
標準的な手法との根本的な差異および改善点は、共線変換ワープ関数Wを、制約された、例えばアフィン変換Aと、取り込み装置Dの測定した向きRから直接計算できる共線変換ワープ関数Pと、に分解したことである。元の現在の画像Iをテンプレート画像Tに位置合わせすることは、標準的な手法において行われるのと同様に、画像レジストレーション方法を用いて非線形ワープ関数Wを求める8次元非線形最適化問題である。この場合には、完全な共線変換ワープ関数が推定されなければならない。本発明による新たな手法では、制約されている、例えばアフィンである変換Aを決定しさえすればよい。
これにより、提案した手法は、標準的な手法よりも高速かつ安定的となる。加えて、テンプレートの事前計算したビューに基づいた画像レジストレーション技法の場合、この新たな手法であれば必要とするメモリが少なくてすむ。
以下に、図4〜図6に示される3つの例示的な実施を参照して、本発明による方法の態様を説明する。
図4は、任意であるが知られた向きでの(すなわち、平坦なテンプレート画像Tの法線nも、ベクトルuを定義するための回転と同様に知られている)平坦なテンプレートへの位置合わせ、および取り込み装置の所与の現在の3DoFの向きを視覚化したものを示す。取り込み装置Dの測定した向きRが、静止したワールド座標系に対して3次元回転を示す場合、静止した平坦なテンプレート画像Tの3次元の法線n、およびワールド座標系中の1つの垂直なベクトルuをオフラインまたはオンラインで定義することが提案される。実行時には、nおよびuは、向きの測定のずれを説明するように更新することができる。
n、u、および取り込み装置Dの現在の向きRが与えられたとすれば、テンプレート画像Tの知られた法線nに垂直であり、共線変換ワープ関数P(図4を参照せよ)を用いてテンプレート画像Tの知られたベクトルuに揃えられた仮想像平面VIPへ現在のカメラ画像Iを投影することが提案される。
この変換した画像Ipには、テンプレート画像T上にある点の任意のセットが、数学的に相似および正立で表される。より正確には、画像Ipの見かけは、均一な拡大縮小、それに続く画像T中の元の点の平行移動の結果である。この変換は、均一な拡大縮小ならびにxおよびy(2つの画像軸)における平行移動のみをサポートするアフィンホモグラフィAを用いて十分に説明することができるので、そのとき、この変換された現在の画像Ipとテンプレート画像Tの位置合わせは、線形ワープを求める3次元非線形最適化問題である。
要するに、図2のフロー図を参照すると、図4の例では、以下のそれぞれの仮定または実施がなされる。すなわち、取り込み装置の現在の3DoFの向きが知られている;グローバル座標系に対するテンプレート画像Tの向きが知られている;ステップS3は、グローバル座標系における取り込み装置Dの3D向きを測定できる任意の装置を用いて実施してもよい;向きの測定Rは、グローバル座標系における3D回転であり、P(x,p)は、装置の座標系に揃えられた仮想像平面VIPへの投影を表し;A(x,p)は、x、y、z平行移動(3D)をサポートするアフィンホモグラフィである。
図5は、重力に対して2DoFのカメラの向きが与えられる水平で平坦なテンプレートへの位置合わせの視覚化を示す。慣性センサのようないくつかのセンサが、重力ベクトルに対する取り込み装置の2次元回転を与えるのにすぎない。この場合には、向きの測定Rは、重力ベクトルの方向を表すのにすぎない。ここで、図4を参照して説明されるものと同様の手法を使用できるが、これは、水平にされた(水平)平面上にあるテンプレート、例えば、テーブル上にある雑誌、床または塗装した天井にあるモザイクに限定される。共線変換ワープ関数Pにより、測定した重力nに垂直である仮想像平面VIPへ現在のカメラ画像Iを投影する。これにより、テンプレート画像T上にある点の任意のセットが数学的に相似で表される変換した画像Ipになる。より正確には、Ipの見かけは、元の点の均一な拡大縮小の結果と合同である。または、視覚的に言えば、変換されたカメラ画像Ipは、テンプレート画像Tの上部から直交して得られるように現れる(図5参照)。
この変換は、アフィンホモグラフィAを用いて十分に説明できるので、このとき、この変換された現在の画像Ipとテンプレート画像Tの位置合わせは、線形ワープを求める6次元非線形最適化問題である。このホモグラフィは、2つの画像軸に沿った平行移動、均一な拡大縮小、および面内回転のみをサポートする。
要するに、図2のフロー図を参照すると、図5の例では、以下のそれぞれの仮定または実施がなされる。すなわち、テンプレート画像Tは、水平にされた平面上にある;ステップS3は、加速度計を用いて実施されてもよい;向きの測定Rは重力の方向であり、したがって2D回転である;P(x,p)は、測定した重力に垂直な仮想像平面VIPへの投影を表す;ならびにA(x,p)は、x、y、z平行移動および面内回転(4D)をサポートするアフィンホモグラフィである。
図6は、カメラ座標系中のテンプレートの法線が与えられた任意に向けられた平坦なテンプレートへの位置合わせの視覚化を示す。取り込み装置または付属の装置Dが、現在の画像Iの特定の画素についての測定した深さの情報を提供する場合、かつ内部カメラパラメータが知られている場合、カメラの座標系中の個々の画素の3D位置は、計算することができる。現在のカメラ画像Iが、標準的な手法を用いて任意に向けられたテンプレート画像Tとうまく位置合わせされた後、次の現在の画像において、発明者らは、テンプレートが最後の現在の画像(領域R1)にある中央領域(R2)に近い現在のカメラ画像I中の少なくとも3つの画素の測定した深さ(d1、d2、d3、dN)をまずサンプリングすることを提案する(図6参照)。ここで、仮定は、これらの画素が現在の画像中のテンプレートをまだ含むというものである。次いで、図6に示されるように、サンプリングした画素に対応するこの3D点に平面を合わせ、法線nを有するこの平面を仮想像平面VIPとして使用する。
共線変換ワープ関数Pを用いてこの仮想像平面VIPに投影された現在のカメラ画像Iは、Ipと呼ばれることになる。これをテンプレート画像Tに空間的に位置合わせすることは、xおよびy(画像軸)における平行移動、面内回転、および均一な拡大縮小をサポートするアフィンホモグラフィAを用いて説明することができる。
要するに、図2のフロー図を参照すると、図6の例では、以下のそれぞれの仮定または実施がなされる。すなわち、ステップS3は、テンプレートを含むと考えられるカメラ画像中の少なくとも3つの画素の深さをサンプリングする知られたMicrosoft Kinectカメラなどの深さ感知カメラを用いて実施される;向きの測定Rは、取り込み装置の座標系中のテンプレートの法線の方向であり、したがって2D回転である;P(x,p)は、テンプレートの測定した法線に垂直な仮想像平面VIPへの投影を表す;A(x,p)は、x、y、z平行移動および面内回転(4D)をサポートするアフィンホモグラフィである。
以下に、本発明の態様のさらなる適宜の改善形態または追加の適用形態を説明する。以下の説明は、本発明を本応用分野に限定することなく、本発明の態様の可能な適用ケースを記載することが当業者には理解されよう。好ましい実施形態では、本発明は、カメラを搭載するモバイルコンピューティングデバイス上で実行するリアルタイムの拡張現実アプリケーションに使用することができる。本出願の目的は、例えば、コンピュータグラフィックモデルなどの仮想情報を水平面上にある実際の平面物体を取り込むライブビデオストリームに重ね合わせることである。そのようなアプリケーションにおいて行われる重ね合わせは、カメラと平面物体の間の相対的な姿勢を考慮しており、モバイルデバイスが、平面物体に対してその位置および向きを変化させているときにも、コンピュータグラフィックモデルがライブビデオストリームに継ぎ目なく統合されることを意味する。モバイルコンピューティングデバイス上で実行するアプリケーションは、水平面上にある平面物体に対するカメラの相対的な位置(3D平行移動)および向き(3D回転)を与えるアルゴリズムを含んでもよい。3D平行移動および回転は、(3×3)共線変換行列から得ることができ、このことは、アルゴリズムが、参照画像を現在取得した画像へ変換する最適な(3×3)共線変換行列をまず求め、次いで、モバイルコンピューティングデバイスのカメラの固有パラメータを知り3D平行移動および回転を抽出することを意味する。
この内容では、重力ベクトルに対するモバイルコンピューティングデバイスの向きが使用される場合、そのようなデータは、慣性センサによって提供されてもよく、平面物体が水平面上にあるとすると、知られていない共線変換行列がアフィンになるように現在の画像を事前にワープすることが可能である。この手法は、知られていない自由度が低減されるため、計算の要求および効率の観点からコンピュータグラフィックモデルをライブビデオストリームに継ぎ目なく統合するのに必要とされる3D平行移動および回転の決定プロセスを改善する。

Claims (23)

  1. 第1の画像の少なくとも一部と第2の画像の少なくとも一部を位置合わせする方法であって、
    a.実環境の第1の画像(T)および前記第1の画像に関連した座標系を用意するステップと、
    b.前記実環境の第2の画像(I)を用意するステップと、
    c.前記実環境を基準にして取り込み装置(D)の向き(R)および/または距離(d1、d2、…、dN)の測定を行う一方、前記第2の画像(I)を取り込むステップと、
    d.前記第2の画像(I)の少なくとも一部に関連した測定(measurements)から共線変換ワープ関数(P)を決定するステップと、
    e.前記対応する決定した共線変換ワープ関数(P)を適用することにより前記第2の画像(I)の前記少なくとも一部を変換するステップと、
    f.前記第2の画像の前記変換された少なくとも一部(Ip)および前記第1の画像(T)の前記少なくとも一部の画素に基づいて、画像レジストレーション方法により前記第2の画像の前記変換された少なくとも一部(Ip)と前記第1の画像(T)の前記少なくとも一部を位置合わせするための第2のワープ関数(A)であって、2次元画像座標軸における平行移動、均一な拡大縮小および面内回転をサポートする前記第2のワープ関数(A)を決定するステップと、
    g.前記共線変換ワープ関数(P)および前記第2のワープ関数(A)を用いて前記第2の画像(I)の前記少なくとも一部と前記第1の画像(T)の前記少なくとも一部を位置合わせするステップと
    を含む方法。
  2. 前記向き(R)の測定は、慣性センサ、加速度計、ジャイロスコープ、コンパス、あるいは機械式、電磁気式、音響式または光学式の追跡システムのうちの少なくとも1つによりもたらされる、請求項1に記載の方法。
  3. 前記距離(d1、d2、…、dN)の測定は、TOFカメラ、ステレオカメラ、無線信号の三角測量、位相差計側、または立体照明による手法を用いた装置のうちの少なくとも1つによりもたらされる、請求項1または2に記載の方法。
  4. 前記向き(R)の測定(the measurements of orientation)は、重力ベクトル(n)の測定に基づいて計算された2次元回転を包含する、請求項1から3の一項に記載の方法。
  5. 前記第1の画像(T)の前記少なくとも一部は、前記測定した重力ベクトル(n)に対して知られた向きに配置された物理的対象に対応する、請求項4に記載の方法。
  6. 前記共線変換ワープ関数(P)は、前記測定した重力ベクトル(n)に対して前記知られた向きにある仮想像平面(VIP)に関連している、請求項5に記載の方法。
  7. 前記向き(R)の測定(the measurements of orientation (R))は、前記実環境を基準にした取り込み装置(D)の3次元回転を包含する一方、前記取り込み装置により前記第2の画像(I)を取り込む、請求項1から3の一項に記載の方法。
  8. 前記向き(R)の測定および/または前記距離(d1、d2、…、dN)の測定(themeasurements of orientation (R) and/or distance (d1、d2、…、dN))から、前記第1の画像に関連した前記座標系に対しての取り込み装置(D)の前記向きが、ステップd)の前記共線変換ワープ関数(P)の決定のために計算され、かつ、使用される、請求項1から7の一項に記載の方法。
  9. 前記共線変換ワープ関数(P)は、前記座標系に揃えられた仮想像平面(VIP)に関連している、請求項8に記載の方法。
  10. 前記距離の測定(the measurements of distance)からさらに、物理的対象に対する前記取り込み装置(D)の前記距離(d1、d2、…、dN)が、前記座標系中の前記取り込み装置の1次元平行移動を計算するために決定される、請求項8または9に記載の方法。
  11. 前記向きは、前記第2の画像(I)中のN点のセットの前記距離(d1、d2、…、dN)の測定(the measurements of distance d1、d2、…、dN)から決定され、Nが少なくとも3である、請求項8から10の一項に記載の方法。
  12. 前記第1の画像(T)および/または第2の画像(I)は、区分的平面と仮定される対象の画像である、請求項1から11の一項に記載の方法。
  13. 前記第2のワープ関数(A)は、アフィンワープ関数である、請求項1から12の一項に記載の方法。
  14. 前記画像レジストレーション方法は、反復最小化プロセスに基づいており、前記第1の画像(T)中の第1の画素セットは、前記第2の画像(I)中の計算した画素セットと比較され、前記比較に用いた前記第2の画像中の前記計算した画素セットは、反復ごとに変化する、請求項1から13の一項に記載の方法。
  15. 前記画像レジストレーション方法における前記比較は、画像の強度に差異に基づいている、請求項14に記載の方法。
  16. 前記第2のワープ関数(A)のパラメータの初期推定は、前記反復最小化プロセスへ与えられる、請求項14または15に記載の方法。
  17. 前記第2のワープ関数(A)の前記パラメータの初期推定は、前記第1の画像(T)の取り込みと前記第2の画像(I)の取り込みの間の前記取り込み装置(D)の動きの推定を用いて決定される、請求項16に記載の方法。
  18. ステップc)において、
    少なくとも第3の画像および関連した座標系が、さらに用意され、
    前記第2の画像(I)は、前記第1の画像(T)の対象および前記少なくとも第3の画像の対象を少なくとも一部含み、
    ステップd)〜g)は、前記第1の画像(I)および前記少なくとも第3の画像について個々に実行される、
    請求項1から17の一項に記載の方法。
  19. 前記第1の画像(T)および/または少なくとも第3の画像、ならびにそれらの関連した座標系は、オフラインで取得される、請求項18に記載の方法。
  20. 前記第1の画像(T)および/または少なくとも第3の画像、ならびにそれらの関連した座標系は、オンラインで取得され、かつ/または、オンラインで更新される、請求項18または19に記載の方法。
  21. 前記第2の画像(I)の前記少なくとも一部の前記位置合わせの結果は、前記取り込み装置(D)の姿勢の決定に用いられる、請求項1から20の一項に記載の方法。
  22. 前記取り込み装置(D)の前記決定された姿勢は、拡張現実アプリケーションに使用される、請求項21に記載の方法。
  23. コンピュータプログラムであって、デジタルコンピュータの内部メモリに読み込まれるようになされ、前記コンピュータプログラムが、前記コンピュータ上で実行しているときに、請求項1から22のいずれかに記載の方法を実行するソフトウェアコードセクションを含むコンピュータプログラム。
JP2014500263A 2011-03-23 2011-03-23 共線変換ワープ関数を用いて第1の画像の少なくとも一部と第2の画像の少なくとも一部を位置合わせする方法 Expired - Fee Related JP5781682B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/EP2011/054456 WO2012126522A1 (en) 2011-03-23 2011-03-23 Method for registering at least one part of a first and second image using a collineation warping function

Publications (2)

Publication Number Publication Date
JP2014514539A JP2014514539A (ja) 2014-06-19
JP5781682B2 true JP5781682B2 (ja) 2015-09-24

Family

ID=44625521

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014500263A Expired - Fee Related JP5781682B2 (ja) 2011-03-23 2011-03-23 共線変換ワープ関数を用いて第1の画像の少なくとも一部と第2の画像の少なくとも一部を位置合わせする方法

Country Status (4)

Country Link
US (1) US9213908B2 (ja)
EP (1) EP2689393A1 (ja)
JP (1) JP5781682B2 (ja)
WO (1) WO2012126522A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9007428B2 (en) * 2011-06-01 2015-04-14 Apple Inc. Motion-based image stitching
US9305361B2 (en) * 2011-09-12 2016-04-05 Qualcomm Incorporated Resolving homography decomposition ambiguity based on orientation sensors
US9147226B2 (en) * 2012-09-10 2015-09-29 Nokia Technologies Oy Method, apparatus and computer program product for processing of images
US10733798B2 (en) * 2013-03-14 2020-08-04 Qualcomm Incorporated In situ creation of planar natural feature targets
US9818150B2 (en) 2013-04-05 2017-11-14 Digimarc Corporation Imagery and annotations
WO2016050290A1 (en) 2014-10-01 2016-04-07 Metaio Gmbh Method and system for determining at least one property related to at least part of a real environment
WO2017115271A1 (en) 2015-12-30 2017-07-06 Cimagine Media Ltd. Method of plane tracking
EP3193305B1 (en) * 2016-01-12 2018-09-12 Continental Automotive GmbH Method and device for displaying a front-view of a vehicle's surrounding and respective vehicle
US10438362B2 (en) * 2017-05-31 2019-10-08 Here Global B.V. Method and apparatus for homography estimation
EP3564899B1 (en) * 2018-04-30 2020-12-16 Tata Consultancy Services Limited Method and system for frame stitching based image construction in an indoor environment

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5175808A (en) * 1989-09-12 1992-12-29 Pixar Method and apparatus for non-affine image warping
JP2500654B2 (ja) * 1992-11-20 1996-05-29 日本電気株式会社 3次元形状相対位置推定装置
US5815411A (en) * 1993-09-10 1998-09-29 Criticom Corporation Electro-optic vision system which exploits position and attitude
JP4262830B2 (ja) 1999-05-17 2009-05-13 岡本 真雅紀 三次元対象体画像解析方法及びその関連技術
JP4453119B2 (ja) * 1999-06-08 2010-04-21 ソニー株式会社 カメラ・キャリブレーション装置及び方法、画像処理装置及び方法、プログラム提供媒体、並びに、カメラ
JP4169462B2 (ja) 1999-08-26 2008-10-22 株式会社リコー 画像処理方法及び装置、デジタルカメラ、画像処理システム、並びに、画像処理プログラムを記録した記録媒体
US20030086002A1 (en) * 2001-11-05 2003-05-08 Eastman Kodak Company Method and system for compositing images
JP2004053447A (ja) 2002-07-22 2004-02-19 Nippon Telegr & Teleph Corp <Ntt> 車両計測装置および方法
WO2004038657A2 (en) 2002-10-22 2004-05-06 Artoolworks Tracking a surface in a 3-dimensional scene using natural visual features of the surface
US7203384B2 (en) 2003-02-24 2007-04-10 Electronic Scripting Products, Inc. Implement for optically inferring information from a planar jotting surface
JP2005049999A (ja) * 2003-07-30 2005-02-24 Ricoh Co Ltd 画像入力装置、画像入力方法、この方法を情報処理装置上で実行可能に記述されたプログラム、及びこのプログラムを記憶した記憶媒体
US7110100B2 (en) 2003-11-04 2006-09-19 Electronic Scripting Products, Inc. Apparatus and method for determining an inclination of an elongate object contacting a plane surface
US7268956B2 (en) 2003-11-24 2007-09-11 Electronic Scripting Products, Inc. Solid catadioptric lens with two viewpoints
US7038846B2 (en) 2003-11-24 2006-05-02 Electronic Scripting Products, Inc. Solid catadioptric lens with a single viewpoint
US7088440B2 (en) 2003-12-22 2006-08-08 Electronic Scripting Products, Inc. Method and apparatus for determining absolute position of a tip of an elongate object on a plane surface with invariant features
US7961909B2 (en) 2006-03-08 2011-06-14 Electronic Scripting Products, Inc. Computer interface employing a manipulated object with absolute pose detection component and a display
US9229540B2 (en) 2004-01-30 2016-01-05 Electronic Scripting Products, Inc. Deriving input from six degrees of freedom interfaces
US7729515B2 (en) 2006-03-08 2010-06-01 Electronic Scripting Products, Inc. Optical navigation apparatus using fixed beacons and a centroid sensing device
US8542219B2 (en) 2004-01-30 2013-09-24 Electronic Scripting Products, Inc. Processing pose data derived from the pose of an elongate object
US7826641B2 (en) 2004-01-30 2010-11-02 Electronic Scripting Products, Inc. Apparatus and method for determining an absolute pose of a manipulated object in a real three-dimensional environment with invariant features
US7023536B2 (en) 2004-03-08 2006-04-04 Electronic Scripting Products, Inc. Apparatus and method for determining orientation parameters of an elongate object
US7161664B2 (en) 2004-04-13 2007-01-09 Electronic Scripting Products, Inc. Apparatus and method for optical determination of intermediate distances
US7113270B2 (en) 2004-06-18 2006-09-26 Electronics Scripting Products, Inc. Determination of an orientation parameter of an elongate object with a scan beam apparatus
JP4914019B2 (ja) * 2005-04-06 2012-04-11 キヤノン株式会社 位置姿勢計測方法及び装置
US7397933B2 (en) * 2005-05-27 2008-07-08 Microsoft Corporation Collusion resistant desynchronization for digital video fingerprinting
DE102005025470B4 (de) 2005-06-02 2007-12-20 Metaio Gmbh Verfahren und System zur Ermittlung der Position und Orientierung einer Kamera relativ zu einem realen Objekt
US7697839B2 (en) * 2006-06-30 2010-04-13 Microsoft Corporation Parametric calibration for panoramic camera systems
JP2008309595A (ja) 2007-06-13 2008-12-25 Horiba Ltd オブジェクト認識装置及びそれに用いられるプログラム
DE102007055252A1 (de) * 2007-11-16 2009-05-28 Vision N Gmbh Verfahren zur Bestimmung der Abstände eines Objekts innerhalb einer Struktur
DE102008023439B4 (de) * 2008-05-14 2011-02-17 Christian-Albrechts-Universität Zu Kiel Augmented Reality Fernglas zur Navigationsunterstützung
US20120236133A1 (en) * 2011-03-18 2012-09-20 Andrew Charles Gallagher Producing enhanced images from anaglyph images
JP5914045B2 (ja) * 2012-02-28 2016-05-11 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
US8970709B2 (en) 2013-03-13 2015-03-03 Electronic Scripting Products, Inc. Reduced homography for recovery of pose parameters of an optical apparatus producing image data with structural uncertainty

Also Published As

Publication number Publication date
JP2014514539A (ja) 2014-06-19
EP2689393A1 (en) 2014-01-29
CN103597513A (zh) 2014-02-19
US9213908B2 (en) 2015-12-15
US20140086494A1 (en) 2014-03-27
WO2012126522A1 (en) 2012-09-27

Similar Documents

Publication Publication Date Title
JP5781682B2 (ja) 共線変換ワープ関数を用いて第1の画像の少なくとも一部と第2の画像の少なくとも一部を位置合わせする方法
CN109643465B (zh) 用于创建混合现实环境的***、方法、显示装置、介质
Kurz et al. Gravity-aware handheld augmented reality
US8326021B2 (en) Measurement apparatus and control method
US9501872B2 (en) AR image processing apparatus and method technical field
JP6418449B2 (ja) 画像処理装置および画像処理方法、並びにプログラム
Song et al. Survey on camera calibration technique
KR20150013709A (ko) 컴퓨터 생성된 3d 객체들 및 필름 카메라로부터의 비디오 공급을 실시간으로 믹싱 또는 합성하기 위한 시스템
JP2015535980A (ja) 特に装置に係る視覚ベースの位置決めに使用される画像処理方法
Kurz et al. Handheld augmented reality involving gravity measurements
Zhu et al. Video-based outdoor human reconstruction
Yu et al. A tracking solution for mobile augmented reality based on sensor-aided marker-less tracking and panoramic mapping
Jun et al. An extended marker-based tracking system for augmented reality
US20230014421A1 (en) 6DoF INSIDE-OUT TRACKING GAME CONTROLLER INITIAL REGISTRATION
Simon Tracking-by-synthesis using point features and pyramidal blurring
Kim et al. IMAF: in situ indoor modeling and annotation framework on mobile phones
US11770551B2 (en) Object pose estimation and tracking using machine learning
Pressigout et al. Model-free augmented reality by virtual visual servoing
Chandaria et al. The MATRIS project: real-time markerless camera tracking for augmented reality and broadcast applications
WO2021111613A1 (ja) 3次元地図作成装置、3次元地図作成方法、及び3次元地図作成プログラム
JP2001245323A (ja) 3次元入力方法および装置
Kurz et al. Benchmarking inertial sensor-aided localization and tracking methods
Hwang et al. 3D modeling and accuracy assessment-a case study of photosynth
Xu et al. Robotic visual servoing using fringe projection profilometry
CN103597513B (zh) 利用直射变换翘曲函数配准第一和第二图像的至少一个部分的方法

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141009

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141021

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150617

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150715

R150 Certificate of patent or registration of utility model

Ref document number: 5781682

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees