JP2006285787A - キャリブレーション方法及び装置 - Google Patents

キャリブレーション方法及び装置 Download PDF

Info

Publication number
JP2006285787A
JP2006285787A JP2005106792A JP2005106792A JP2006285787A JP 2006285787 A JP2006285787 A JP 2006285787A JP 2005106792 A JP2005106792 A JP 2005106792A JP 2005106792 A JP2005106792 A JP 2005106792A JP 2006285787 A JP2006285787 A JP 2006285787A
Authority
JP
Japan
Prior art keywords
virtual object
orientation
real object
image
real
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005106792A
Other languages
English (en)
Other versions
JP4726194B2 (ja
JP2006285787A5 (ja
Inventor
Taichi Matsui
太一 松井
Yasuo Katano
康生 片野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2005106792A priority Critical patent/JP4726194B2/ja
Priority to US11/390,437 priority patent/US7542051B2/en
Priority to CNB200610071042XA priority patent/CN100426198C/zh
Priority to DE602006020651T priority patent/DE602006020651D1/de
Priority to EP06006952A priority patent/EP1708139B1/en
Priority to KR1020060030034A priority patent/KR100823649B1/ko
Publication of JP2006285787A publication Critical patent/JP2006285787A/ja
Publication of JP2006285787A5 publication Critical patent/JP2006285787A5/ja
Application granted granted Critical
Publication of JP4726194B2 publication Critical patent/JP4726194B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Architecture (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】 現実物体と仮想物体との位置合わせが必要なシステムにおけるキャリブレーションを容易に、かつ精度良く実施可能とすること。
【解決手段】 現実物体と、当現実物体を撮影した画像上に重畳表示する仮想物体との位置姿勢ずれを補正するための補正値を取得するキャリブレーション方法であって、現実物体の位置姿勢を計測する計測工程と、現実物体が移動可能な所定平面上に存在する仮想物体の画像を生成する仮想物体生成工程と、現実物体を撮影した映像に、仮想物体の画像を重畳した合成画像を表示する表示工程と、合成画像における現実物体の位置姿勢と仮想物体の位置姿勢が所定の関係を満たしたことを検出する検出工程と、合致時の現実物体の位置姿勢と仮想物体の位置姿勢のずれを、現実物体の所定平面上の平行移動と所定平面に直交する方向を軸とした回転の組合わせにより表現することにより、補正値として取得する取得工程とを有する。
【選択図】 図4

Description

本発明は、現実物体と、当該現実物体を撮影した画像上に重畳表示する仮想物体との位置姿勢ずれを補正するための補正値を取得するキャリブレーション方法及び装置に関する。
バーチャルリアリティ(VR)システムは、コンピュータの作り出す三次元CGをユーザに提示することで、仮想の空間をあたかも現実であるかのように感じさせるシステムである。また、近年、現実世界の映像に三次元CGを合成することで現実世界にはない情報をユーザに提示する技術の開発もなされており、それらはAR(Augumented Reality、拡張現実感)システムやMR(Mixed Reality、複合現実感)システムと呼ばれている。
ARシステムでは、現実の物体に三次元CGを重畳することが可能であり、例えば、特許文献1に示されるゲームでは、ユーザの持つ対話操作入力装置に剣や武器などの三次元CGを重畳表示することで、ユーザが自由に仮想の物体(この場合は剣や武器)を操ることを可能にしている。
特開2000−353248号公報
このようなシステムにおいて、ユーザに没入感を与えるためには、現実物体と仮想物体との位置あわせ精度が重要となる。しかし、現実物体と仮想物体の重畳を正確に行うために行われるキャリブレーションには時間がかかり、かつ相応のスキルが必要であった。
本発明はこのような従来技術の課題に鑑みなされたものであり、現実物体と仮想物体の位置ずれを補正するための補正量を取得するキャリブレーション処理に要する時間を短縮するとともに、キャリブレーション処理を容易にすることにある。
上述の目的は、現実物体と、当現実物体を撮影した画像上に重畳表示する仮想物体との位置姿勢ずれを補正するための補正値を取得するキャリブレーション方法であって、現実物体の位置姿勢を計測する計測工程と、現実物体が移動可能な所定平面上に存在する仮想物体の画像を生成する仮想物体生成工程と、現実物体を撮影した映像に、仮想物体の画像を重畳した合成画像を表示する表示工程と、合成画像における現実物体の位置姿勢と仮想物体の位置姿勢が所定の関係を満たしたことを検出する検出工程と、合致時の現実物体の位置姿勢と仮想物体の位置姿勢のずれを、現実物体の所定平面上の平行移動と所定平面に直交する方向を軸とした回転の組合わせにより表現することにより、補正値として取得する取得工程とを有することを特徴とするキャリブレーション方法によって達成される。
また、上述の目的は、現実物体と、当現実物体を撮影した画像上に重畳表示する仮想物体との位置姿勢ずれを補正するための補正値を取得するキャリブレーション方法であって、予め定めた平面に沿った平行移動と平面に直交する方向を軸とした回転の組合わせにより移動可能な現実物体の位置と姿勢を計測する第1の計測工程と、現実物体を観察者が装着する頭部装着型表示装置に設けたカメラにより撮影する撮影工程と、カメラの位置姿勢を測定する第2の計測工程と、カメラの位置姿勢に基づいて、予め定めた仮想物体を、当仮想物体が予め定めた平面上に存在するものとして観察者に観察されるように描画する仮想物体生成工程と、描画された仮想物体とカメラが撮影する画像とを合成して頭部装着型表示装置に表示させる合成表示工程と、観察者による、現実物体が仮想物体と所定の位置関係を満たして観察されることを示す指示を検出する検出工程と、指示が検出された時点における現実物体の位置姿勢と、仮想物体の位置姿勢のずれを補正値として取得する取得工程とを有することを特徴とするキャリブレーション方法によっても達成される。
このような構成により、本発明によれば、キャリブレーション処理に要する時間を短縮するとともに、キャリブレーション処理を容易にすることにある。
以下図面を参照して本発明をその実施形態に基づいて詳細に説明する。
図1は本発明の実施形態に係る複合現実感提示システムの構成例を示すブロック図である。システムは、画像入力部102、画像合成部103、画像出力部104、カメラ位置姿勢計測部105、仮想物体生成部106、現実物***置姿勢計測部107を備えるシステム制御部101と、ユーザが装着するビデオシースルー型ヘッドマウンテッドディスプレイ(HMD)132と、現実物体108とから構成される。なお、現実物体108は位置姿勢センサB(109)を備えている。
システム制御部101は、例えばディスプレイインタフェース、ビデオキャプチャボード及び、シリアルインタフェースなどのデータ入力インタフェースを備え、図示しない不揮発性メモリ等に記憶された制御プログラムを実行するコンピュータによって実現される。
ビデオシースルー型ヘッドマウンテッドディスプレイ(HMD)132は、ユーザの視点位置近傍からの映像を撮影するカメラ133と、カメラ133が撮像した映像を出力する画像出力部134と、例えばLCDである画像表示部136と、映像表示部136に表示する画像をシステム制御部101の画像出力部104から受け取る画像入力部135とを有する。また、HMD132は位置姿勢センサA(137)を備えている。
ユーザが頭部に装着したHMD132のカメラ133は、ユーザの視点近傍でユーザの視線方向における現実空間を撮像する。撮像された現実空間の画像は画像出力部134に送信される。画像出力部134は現実空間の画像をシステム制御部101の画像入力部102に送信する。
システム制御部101では画像入力部102から取り込んだ現実空間の画像データを画像合成部103に送信する。カメラ位置姿勢計測部105はHMD132の位置姿勢センサA(137)によりカメラ133の位置姿勢を計測し、計測結果をカメラ位置姿勢情報として仮想物体生成部106に送信する。
本実施形態において、現実物体108は仮想物体と重畳するために用いられる。現実物体108の位置姿勢は、現実物体108に設けた位置姿勢センサB(109)を用いて現実物***置姿勢計測部107が計測する。計測結果は現実物***置姿勢情報として仮想物体生成部106へ送信する。
仮想物体生成部106では、カメラ位置姿勢情報と現実物***置姿勢情報をもとに、カメラ133の視点からの見た現実物体108の位置姿勢に仮想物体画像を生成する。仮想物体生成部106は生成した仮想物体画像を画像合成部103に送信する。
画像合成部103では現実空間の画像と仮想物体画像を合成して複合現実空間画像を生成し、画像出力部104に送信する。画像出力部104は複合現実空間画像をHMD132の画像入力部135に送信する。画像入力部135は取り込んだ複合現実空間画像を画像表示部136に送信し、例えばユーザの眼前に設けられた表示装置である画像表示部136が複合現実空間画像を表示する。その複合現実空間画像をユーザが観察することで、現実空間に位置あわせされた仮想物体が存在するかのような感覚を体験することができる。また、記憶部110は仮想物体のモデル情報をはじめとする、複合現実空間画像を生成するために必要な情報が記憶されている。
なお、説明及び理解を容易にするため、ここでは説明を省略したが、実際には上述の複合現実空間画像を生成するための構成並びに動作は、左目用、右目用の2系統が存在する。すなわち、カメラ133は左目用カメラと右目用カメラから構成され、それぞれのカメラの位置姿勢を測定する。そしてそれぞれのカメラの視点位置から見た現実物体の位置姿勢に仮想物体画像を生成し、左目用及び右目用複合現実空間画像を生成、表示する。このような構成により、視差を利用した立体的な表示が可能となり、複合現実空間をより現実的な空間としてユーザに体感させることが可能になる。
次に本システムにおけるキャリブレーション動作について説明する。
上述の通り、キャリブレーションは少なくとも複合現実空間画像を生成する前に行う、仮想空間と現実空間との位置あわせ処理である。図2は本システムにおけるキャリブレーションの様子を模式的に示す図である。ここでは、本システムのキャリブレーションに用いる、位置姿勢計測可能な現実物体としてカメラ108を用い、現実物体を位置合わせするための仮想物体として、カメラ108と同一の大きさ及び形状を有するカメラをコンピュータグラフィックス(CG)により描画した場合を示している。
しかしながら、
(1)位置と姿勢が合致した状態を容易にユーザが認識可能
(2)所定平面上での平行移動と当該平面と直交する方向を軸とする回転により両者の位置と姿勢を一意に合致することが可能
(3)現実物体をユーザが手で移動可能
であれば、現実物体及び仮想物体の大きさや形状に制限はない。
以下に説明する例では、説明及び理解を容易にするため、所定平面が水平面、所定平面と直交する方向が鉛直方向である場合を述べる。
そして、図2において、水平面は台203の上面によって形成され、仮想物体202と現実物体108はその底面を構成する平面が台203の上面に接するように配置される。従って、現実物体108を台203上で滑らせて平行移動及び回転させることにより、仮想物体202との位置合わせが可能である。
なお、ここでは所定平面を台203の上面によって形成し、台203を現実物体の置き台とすることで、現実物体108の移動平面を水平面に固定している。しかし、現実物体108が移動可能な平面が1つに固定されさえすれば、台203は不要である。すなわち、現実物体108をある平面内に固定する機構として機能する任意の構成を利用することができる。ただし、現実物体の操作性や演算処理の容易さの点からは、現実物体108の移動可能平面が水平面であることが望ましい。
このような現実物体108と仮想物体202とを用いて、システムをキャリブレーションする処理について、図3のフローチャートを用いて説明する。この処理は、例えばHMD132を装着するユーザの指示によって開始される。
まずS301で、仮想物体生成部106は、仮想物体202のモデルを記憶部110から読み出し、やはり記憶部110に記憶されている、予め測定された台203の世界座標系における座標値と、HMD132の姿勢位置センサA(137)の出力に基づいて、仮想物体202を、台203の上面に置かれているような位置にあるものとして描画する。なお、この時の仮想物体202の姿勢は、仮想物体202が底の水平面、もしくは一定の水平を保つための機構によって台203の上面に接して水平に保たれた状態である。この仮想物体202の画像は、画像合成部103において、カメラ133が撮像した現実空間画像、すなわち台203の画像と合成され、画像出力部104、画像入力部135を介してHMD132の画像表示部136に表示される。
この状態では仮想物体202と現実物体108とはその底面を共通の平面とした位置関係にある。そのため、図4に示すように、ユーザーはS302で、現実物体108と仮想物体202の位置及び姿勢を、台203の水平面上での水平移動と鉛直方向を軸とした回転との組み合わせにより合致させることができる。
カメラ位置姿勢計測部105は、HMD132の位置姿勢センサA(137)の出力からカメラ133の位置姿勢を検出し、仮想物体生成部106はこの位置姿勢に合わせた仮想物体の生成、描画を行う。一方、現実物***置姿勢計測部107は、現実物体108に設けられた位置姿勢センサB(109)の出力から現実物体108の位置姿勢を検出し、画像合成部103へ出力する。
システム制御部110は、入力部138を通じてユーザから合致指示が入力されたかどうかをチェックしながら(S303)、ユーザの動きに応じてカメラ133の位置姿勢が変化しても、仮想物体202が正しい姿勢で表示され続けるよう、仮想物体の生成、表示処理を行う(S305)。
一方ユーザは、HMD132において現実物体108と仮想物体202とを観察しながら、現実物体108が仮想物体202に完全に重なって見えるように現実物体108を移動させる。そして、完全に重なって見えるようになったら、入力部138に含まれる合致指示ボタンなどを押下し、合致状態に至ったことをシステム制御部110に通知する。
この際、位置姿勢での重なりの判断は、現実物体108の鉛直上方から現実物体108と仮想物体202の重なり具合を観察することで行うことが好ましい。これは、現実物体と仮想物体は水平位置と鉛直軸方向の回転量以外は一致しているため、鉛直上方から見ることで一致していない水平位置と鉛直軸方向の回転量だけを視認することが可能なためである。
S303においてユーザからの合致指示入力が検出されると、システム制御部110は、その時点の現実物体108の位置姿勢計測値と仮想物体202のシステム上の位置姿勢値との差分となるオフセット値を記録する(S307)。これにより、以降必要となる位置姿勢補正量が確定し、キャリブレーション処理が終了する。
以後、現実物体108の移動に追従して仮想物体202を描画する際、システム上の位置姿勢値を上述のオフセット値により補正した位置姿勢値を用いることにより、仮想物体202は現実物体108が移動したり姿勢を変えたりしても、常に現実物体108とぴったりと重なり合った状態でユーザに観察されるようになる。
以上説明したように、本実施形態によれば、可動平面が固定された現実物体と現実物体の可動平面上に位置するように描画した仮想物体とが所定の位置関係に観察されたことを示す指示があった時点における仮想物体の位置姿勢値と現実物体の位置姿勢値とのずれを取得し、現実物体と仮想物体との位置ずれを補正するための補正値として用いることにより、キャリブレーション処理を容易かつ精度良く行うことが可能になる。
あるいは、本実施形態によれば、可動平面が固定された現実物体と現実物体の可動平面上に位置するように描画した仮想物体とが所定の位置関係を満たした際の現実物体の位置姿勢と仮想物体の位置姿勢のずれを、現実物体の所定平面上の平行移動と所定平面に直交する方向を軸とした回転の組合わせにより表現した補正値を取得することにより、キャリブレーション処理を容易かつ精度良く行うことが可能になる。
<他の実施形態>
尚、前述した実施形態の機能を実現するソフトウェアのプログラムを、記録媒体から直接、或いは有線/無線通信を用いて当該プログラムを実行可能なコンピュータを有するシステム又は装置に供給し、そのシステム或いは装置のコンピュータが該供給されたプログラムを実行することによって同等の機能が達成される場合も本発明に含む。
従って、本発明の機能処理をコンピュータで実現するために、該コンピュータに供給、インストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明の機能処理を実現するためのコンピュータプログラム自体も本発明に含まれる。
その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等、プログラムの形態を問わない。
プログラムを供給するための記録媒体としては、例えば、フレキシブルディスク、ハードディスク、磁気テープ等の磁気記録媒体、MO、CD−ROM、CD−R、CD−RW、DVD−ROM、DVD−R、DVD−RW等の光/光磁気記憶媒体、不揮発性の半導体メモリなどがある。
有線/無線通信を用いたプログラムの供給方法としては、コンピュータネットワーク上のサーバに本発明を形成するコンピュータプログラムそのもの、もしくは圧縮され自動インストール機能を含むファイル等、クライアントコンピュータ上で本発明を形成するコンピュータプログラムとなりうるデータファイル(プログラムデータファイル)を記憶し、接続のあったクライアントコンピュータにプログラムデータファイルをダウンロードする方法などが挙げられる。この場合、プログラムデータファイルを複数のセグメントファイルに分割し、セグメントファイルを異なるサーバに配置することも可能である。
つまり、本発明の機能処理をコンピュータで実現するためのプログラムデータファイルを複数のユーザに対してダウンロードさせるサーバ装置も本発明に含む。
また、本発明のプログラムを暗号化してCD−ROM等の記憶媒体に格納してユーザに配布し、所定の条件を満たしたユーザに対して暗号化を解く鍵情報を、例えばインターネットを介してホームページからダウンロードさせることによって供給し、その鍵情報を使用することにより暗号化されたプログラムを実行してコンピュータにインストールさせて実現することも可能である。
また、コンピュータが、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される他、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどが、実際の処理の一部または全部を行ない、その処理によっても前述した実施形態の機能が実現され得る。
さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行ない、その処理によっても前述した実施形態の機能が実現され得る。
本発明の実施形態に係る複合現実感提示システムの構成例を示す図である。 本実施形態のシステムのキャリブレーションに用いる現実物体と仮想物体の例を示す図である。 本実施形態に係るシステムにおけるキャリブレーション処理を説明するためのフローチャートである。 本実施形態のシステムのキャリブレーション方法を説明する図である。

Claims (8)

  1. 現実物体と、当該現実物体を撮影した画像上に重畳表示する仮想物体との位置姿勢ずれを補正するための補正値を取得するキャリブレーション方法であって、
    前記現実物体の位置姿勢を計測する計測工程と、
    前記現実物体が移動可能な所定平面上に存在する仮想物体の画像を生成する仮想物体生成工程と、
    前記現実物体を撮影した映像に、前記仮想物体の画像を重畳した合成画像を表示する表示工程と、
    前記合成画像における前記現実物体の位置姿勢と前記仮想物体の位置姿勢が所定の関係を満たしたことを検出する検出工程と、
    前記合致時の前記現実物体の位置姿勢と前記仮想物体の位置姿勢のずれを、前記現実物体の前記所定平面上の平行移動と前記所定平面に直交する方向を軸とした回転の組合わせにより表現することにより、前記補正値として取得する取得工程とを有することを特徴とするキャリブレーション方法。
  2. 前記検出工程が、前記合成画像の観察者が入力する信号に基づいて、前記所定の関係を満たしたことを検出することを特徴とする請求項1記載のキャリブレーション方法。
  3. 現実物体と、当該現実物体を撮影した画像上に重畳表示する仮想物体との位置姿勢ずれを補正するための補正値を取得するキャリブレーション方法であって、
    予め定めた平面に沿った平行移動と前記平面に直交する方向を軸とした回転の組合わせにより移動可能な現実物体の位置と姿勢を計測する第1の計測工程と、
    前記現実物体を観察者が装着する頭部装着型表示装置に設けたカメラにより撮影する撮影工程と、
    前記カメラの位置姿勢を測定する第2の計測工程と、
    前記カメラの位置姿勢に基づいて、予め定めた仮想物体を、当該仮想物体が前記予め定めた平面上に存在するものとして前記観察者に観察されるように描画する仮想物体生成工程と、
    前記描画された仮想物体と前記カメラが撮影する画像とを合成して前記頭部装着型表示装置に表示させる合成表示工程と、
    観察者による、前記現実物体が前記仮想物体と所定の位置関係を満たして観察されることを示す指示を検出する検出工程と、
    前記指示が検出された時点における前記現実物体の位置姿勢と、前記仮想物体の位置姿勢のずれを前記補正値として取得する取得工程とを有することを特徴とするキャリブレーション方法。
  4. 前記予め定めた平面が水平面であり、前記平面に直交する方向が鉛直方向であることを特徴とする請求項3記載のキャリブレーション方法。
  5. 前記仮想物体生成工程が、前記現実物体の位置姿勢に合わせて前記仮想物体を描画することを特徴とする請求項3又は請求項4記載のキャリブレーション方法。
  6. 前記仮想物体生成工程が、前記取得した補正値を用いて補正した位置姿勢に前記仮想物体を描画することを特徴とする請求項3乃至請求項5のいずれか1項に記載のキャリブレーション方法。
  7. 現実物体と、当該現実物体を撮影した画像上に重畳表示する仮想物体との位置姿勢ずれを補正するための補正値を取得するキャリブレーション装置であって、
    前記現実物体の位置姿勢を計測する計測手段と、
    前記現実物体が移動可能な所定平面上に存在する仮想物体の画像を生成する仮想物体生成手段と、
    前記現実物体を撮影した映像に、前記仮想物体の画像を重畳した合成画像を表示する表示手段と、
    前記合成画像における前記現実物体の位置姿勢と前記仮想物体の位置姿勢の合致を検出する検出手段と、
    前記合致時の前記現実物体の位置姿勢と前記仮想物体の位置姿勢のずれを、前記現実物体の前記所定平面上の平行移動と前記所定平面に直交する方向を軸とした回転の組合わせにより表現することにより、前記補正値として取得する取得手段とを有することを特徴とするキャリブレーション装置。
  8. 現実物体と、当該現実物体を撮影した画像上に重畳表示する仮想物体との位置姿勢ずれを補正するための補正値を取得するキャリブレーション装置であって、
    予め定めた平面に沿った平行移動と前記平面に直交する方向を軸とした回転の組合わせにより移動可能な現実物体の位置と姿勢を計測する第1の計測手段と、
    前記現実物体を観察者が装着する頭部装着型表示装置に設けたカメラにより撮影する撮影手段と、
    前記カメラの位置姿勢を測定する第2の計測手段と、
    前記カメラの位置姿勢に基づいて、予め定めた仮想物体を、当該仮想物体が前記予め定めた平面上に存在するものとして前記観察者に観察されるように描画する仮想物体生成手段と、
    前記描画された仮想物体と前記カメラが撮影する画像とを合成して前記頭部装着型表示装置に表示させる合成表示手段と、
    観察者による、前記現実物体が前記仮想物体と所定の位置関係を満たして観察されることを示す指示を検出する検出手段と、
    前記指示が検出された時点における前記現実物体の位置姿勢と、前記仮想物体の位置姿勢のずれを前記補正値として取得する取得手段とを有することを特徴とするキャリブレーション装置。
JP2005106792A 2005-04-01 2005-04-01 キャリブレーション方法及び装置 Expired - Fee Related JP4726194B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2005106792A JP4726194B2 (ja) 2005-04-01 2005-04-01 キャリブレーション方法及び装置
US11/390,437 US7542051B2 (en) 2005-04-01 2006-03-28 Calibration method and apparatus
DE602006020651T DE602006020651D1 (de) 2005-04-01 2006-03-31 Kalibrierverfahren und -vorrichtung
EP06006952A EP1708139B1 (en) 2005-04-01 2006-03-31 Calibration method and apparatus
CNB200610071042XA CN100426198C (zh) 2005-04-01 2006-03-31 校准方法和装置
KR1020060030034A KR100823649B1 (ko) 2005-04-01 2006-04-03 캘리브레이션 방법 및 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005106792A JP4726194B2 (ja) 2005-04-01 2005-04-01 キャリブレーション方法及び装置

Publications (3)

Publication Number Publication Date
JP2006285787A true JP2006285787A (ja) 2006-10-19
JP2006285787A5 JP2006285787A5 (ja) 2008-05-01
JP4726194B2 JP4726194B2 (ja) 2011-07-20

Family

ID=36405983

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005106792A Expired - Fee Related JP4726194B2 (ja) 2005-04-01 2005-04-01 キャリブレーション方法及び装置

Country Status (6)

Country Link
US (1) US7542051B2 (ja)
EP (1) EP1708139B1 (ja)
JP (1) JP4726194B2 (ja)
KR (1) KR100823649B1 (ja)
CN (1) CN100426198C (ja)
DE (1) DE602006020651D1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015114823A (ja) * 2013-12-11 2015-06-22 三菱電機株式会社 携帯用端末装置
JP2016502210A (ja) * 2012-12-21 2016-01-21 クアルコム,インコーポレイテッド 別個のコンピュータ視覚ベース姿勢および慣性センサベース姿勢の表示
JP2019185475A (ja) * 2018-04-12 2019-10-24 富士通株式会社 特定プログラム、特定方法及び情報処理装置

Families Citing this family (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7868904B2 (en) * 2005-04-01 2011-01-11 Canon Kabushiki Kaisha Image processing method and image processing apparatus
JP4667111B2 (ja) * 2005-04-21 2011-04-06 キヤノン株式会社 画像処理装置、画像処理方法
JP4914123B2 (ja) * 2005-07-15 2012-04-11 キヤノン株式会社 画像処理装置及び方法
DE102007045835B4 (de) 2007-09-25 2012-12-20 Metaio Gmbh Verfahren und Vorrichtung zum Darstellen eines virtuellen Objekts in einer realen Umgebung
DE102007045834B4 (de) 2007-09-25 2012-01-26 Metaio Gmbh Verfahren und Vorrichtung zum Darstellen eines virtuellen Objekts in einer realen Umgebung
FR2933218B1 (fr) * 2008-06-30 2011-02-11 Total Immersion Procede et dispositif permettant de detecter en temps reel des interactions entre un utilisateur et une scene de realite augmentee
JP2010033367A (ja) * 2008-07-29 2010-02-12 Canon Inc 情報処理装置及び情報処理方法
KR100941749B1 (ko) * 2008-08-25 2010-02-11 에이알비전 (주) 증강 현실 장치 및 가상 이미지 합성 방법
GB0915589D0 (en) * 2009-09-07 2009-10-07 Sony Comp Entertainment Europe Image processing method, apparatus and system
US8947455B2 (en) 2010-02-22 2015-02-03 Nike, Inc. Augmented reality design system
US20120249797A1 (en) 2010-02-28 2012-10-04 Osterhout Group, Inc. Head-worn adaptive display
US9128281B2 (en) 2010-09-14 2015-09-08 Microsoft Technology Licensing, Llc Eyepiece with uniformly illuminated reflective display
US20120120103A1 (en) * 2010-02-28 2012-05-17 Osterhout Group, Inc. Alignment control in an augmented reality headpiece
US20150309316A1 (en) 2011-04-06 2015-10-29 Microsoft Technology Licensing, Llc Ar glasses with predictive control of external device based on event input
US9759917B2 (en) 2010-02-28 2017-09-12 Microsoft Technology Licensing, Llc AR glasses with event and sensor triggered AR eyepiece interface to external devices
US9097890B2 (en) 2010-02-28 2015-08-04 Microsoft Technology Licensing, Llc Grating in a light transmissive illumination system for see-through near-eye display glasses
US9134534B2 (en) 2010-02-28 2015-09-15 Microsoft Technology Licensing, Llc See-through near-eye display glasses including a modular image source
US9229227B2 (en) 2010-02-28 2016-01-05 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a light transmissive wedge shaped illumination system
US9285589B2 (en) 2010-02-28 2016-03-15 Microsoft Technology Licensing, Llc AR glasses with event and sensor triggered control of AR eyepiece applications
US10180572B2 (en) 2010-02-28 2019-01-15 Microsoft Technology Licensing, Llc AR glasses with event and user action control of external applications
US9366862B2 (en) 2010-02-28 2016-06-14 Microsoft Technology Licensing, Llc System and method for delivering content to a group of see-through near eye display eyepieces
US9129295B2 (en) 2010-02-28 2015-09-08 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a fast response photochromic film system for quick transition from dark to clear
US9091851B2 (en) 2010-02-28 2015-07-28 Microsoft Technology Licensing, Llc Light control in head mounted displays
US9182596B2 (en) 2010-02-28 2015-11-10 Microsoft Technology Licensing, Llc See-through near-eye display glasses with the optical assembly including absorptive polarizers or anti-reflective coatings to reduce stray light
US9223134B2 (en) 2010-02-28 2015-12-29 Microsoft Technology Licensing, Llc Optical imperfections in a light transmissive illumination system for see-through near-eye display glasses
EP2539759A1 (en) 2010-02-28 2013-01-02 Osterhout Group, Inc. Local advertising content on an interactive head-mounted eyepiece
US9341843B2 (en) 2010-02-28 2016-05-17 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a small scale image source
US9097891B2 (en) 2010-02-28 2015-08-04 Microsoft Technology Licensing, Llc See-through near-eye display glasses including an auto-brightness control for the display brightness based on the brightness in the environment
JP5732988B2 (ja) 2011-04-08 2015-06-10 ソニー株式会社 画像処理装置、表示制御方法及びプログラム
US9188973B2 (en) 2011-07-08 2015-11-17 Restoration Robotics, Inc. Calibration and transformation of a camera system's coordinate system
JP5838747B2 (ja) * 2011-11-11 2016-01-06 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
US9311883B2 (en) 2011-11-11 2016-04-12 Microsoft Technology Licensing, Llc Recalibration of a flexible mixed reality device
DE102011122206A1 (de) 2011-12-23 2013-06-27 Volkswagen Aktiengesellschaft Verfahren zum Betrieb eines Augmented-Reality-Systems
EP2967297B1 (en) * 2013-03-15 2022-01-05 Synaptive Medical Inc. System for dynamic validation, correction of registration for surgical navigation
JP5796726B2 (ja) * 2013-03-29 2015-10-21 コニカミノルタ株式会社 ジョブ情報表示装置
US8922589B2 (en) 2013-04-07 2014-12-30 Laor Consulting Llc Augmented reality apparatus
JP6138566B2 (ja) * 2013-04-24 2017-05-31 川崎重工業株式会社 部品取付作業支援システムおよび部品取付方法
US20150077340A1 (en) * 2013-09-18 2015-03-19 Genius Toy Taiwan Co., Ltd. Method, system and computer program product for real-time touchless interaction
KR102256057B1 (ko) * 2014-03-17 2021-05-25 에스케이플래닛 주식회사 객체의 자세 기반 검색 결과 제공 장치, 그 방법 및 컴퓨터 프로그램이 기록된 기록매체
KR102221152B1 (ko) * 2014-03-18 2021-02-26 에스케이플래닛 주식회사 객체 자세 기반 연출 효과 제공 장치 및 방법, 그리고 이를 위한 컴퓨터 프로그램이 기록된 기록매체
DE102014009699B4 (de) * 2014-06-26 2022-05-19 Audi Ag Verfahren zum Betreiben einer Anzeigeeinrichtung und System mit einer Anzeigeeinrichtung
EP3175323A4 (en) * 2014-07-31 2018-07-18 Hewlett-Packard Development Company, L.P. Model data of an object disposed on a movable surface
GB2529683A (en) * 2014-08-29 2016-03-02 Bae Systems Plc Image display
GB2529682A (en) 2014-08-29 2016-03-02 Bae Systems Plc Image display
US10176554B2 (en) * 2015-10-05 2019-01-08 Google Llc Camera calibration using synthetic images
CN105719299A (zh) * 2016-01-22 2016-06-29 吉林大学 分离的计算机视觉位置及方向与惯性传感器位置及方向的显示
CN105788003A (zh) * 2016-03-09 2016-07-20 深圳市瑞立夫网络科技有限公司 虚拟场景与现实场景的无缝对接方法
CN109215076A (zh) * 2017-07-05 2019-01-15 上海宝冶集团有限公司 应用混合现实技术的模型与实体间的定位校准方法
US10235774B1 (en) 2017-11-14 2019-03-19 Caterpillar Inc. Method and system for calibration of an image capturing device mounted on a machine
US11825230B2 (en) * 2020-02-14 2023-11-21 Canon Kabushiki Kaisha Imaging apparatus and storage medium
WO2023049086A2 (en) * 2021-09-22 2023-03-30 Veyezer, Llc Holographic real space refractive system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002229730A (ja) * 2000-11-30 2002-08-16 Mixed Reality Systems Laboratory Inc 情報処理装置、複合現実感提示装置及びその方法並びに記憶媒体
JP2004126869A (ja) * 2002-10-01 2004-04-22 Canon Inc 位置姿勢設定器具及び変換パラメータ設定方法並びに複合現実感システム

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5852672A (en) * 1995-07-10 1998-12-22 The Regents Of The University Of California Image system for three dimensional, 360 DEGREE, time sequence surface mapping of moving objects
CN1242851A (zh) * 1996-12-29 2000-01-26 网上冲浪有限公司 互动虚拟现实***的基于模型的景像外推
US6025839A (en) * 1997-06-06 2000-02-15 International Business Machines Corp. Method for displaying information in a virtual reality environment
US6094625A (en) * 1997-07-03 2000-07-25 Trimble Navigation Limited Augmented vision for survey work and machine control
KR100248374B1 (ko) 1997-11-25 2000-03-15 정선종 증강현실 시스템에서 카메라와 트랙커간의 오차 보정방법
US6625299B1 (en) * 1998-04-08 2003-09-23 Jeffrey Meisner Augmented reality technology
US7073129B1 (en) * 1998-12-18 2006-07-04 Tangis Corporation Automated selection of appropriate information based on a computer user's context
JP3413127B2 (ja) 1999-06-11 2003-06-03 キヤノン株式会社 複合現実感装置及び複合現実感提示方法
US6972734B1 (en) * 1999-06-11 2005-12-06 Canon Kabushiki Kaisha Mixed reality apparatus and mixed reality presentation method
US6898307B1 (en) * 1999-09-22 2005-05-24 Xerox Corporation Object identification method and system for an augmented-reality display
AU2002303082A1 (en) * 2001-01-26 2002-09-12 Zaxel Systems, Inc. Real-time virtual viewpoint in simulated reality environment
US7274380B2 (en) * 2001-10-04 2007-09-25 Siemens Corporate Research, Inc. Augmented reality system
US7190331B2 (en) * 2002-06-06 2007-03-13 Siemens Corporate Research, Inc. System and method for measuring the registration accuracy of an augmented reality system
US7138963B2 (en) * 2002-07-18 2006-11-21 Metamersion, Llc Method for automatically tracking objects in augmented reality
US6867753B2 (en) * 2002-10-28 2005-03-15 University Of Washington Virtual image registration in augmented display field
US7120875B2 (en) * 2002-10-29 2006-10-10 X-Labs Holdings, Llc Method and apparatus for augmented reality hybrid tracking system with fiducial-based heading correction
US7050078B2 (en) * 2002-12-19 2006-05-23 Accenture Global Services Gmbh Arbitrary object tracking augmented reality applications
JP2004287699A (ja) * 2003-03-20 2004-10-14 Tama Tlo Kk 画像合成装置及びその合成方法
US7369101B2 (en) 2003-06-12 2008-05-06 Siemens Medical Solutions Usa, Inc. Calibrating real and virtual views
JP4401728B2 (ja) * 2003-09-30 2010-01-20 キヤノン株式会社 複合現実空間画像生成方法及び複合現実感システム
JP4401727B2 (ja) 2003-09-30 2010-01-20 キヤノン株式会社 画像表示装置及び方法
CN1957373A (zh) * 2004-03-12 2007-05-02 布拉科成像S.P.A.公司 基于视频的扩增实境增强型外科手术导航***的精度评估
US7474318B2 (en) * 2004-05-28 2009-01-06 National University Of Singapore Interactive system and method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002229730A (ja) * 2000-11-30 2002-08-16 Mixed Reality Systems Laboratory Inc 情報処理装置、複合現実感提示装置及びその方法並びに記憶媒体
JP2004126869A (ja) * 2002-10-01 2004-04-22 Canon Inc 位置姿勢設定器具及び変換パラメータ設定方法並びに複合現実感システム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016502210A (ja) * 2012-12-21 2016-01-21 クアルコム,インコーポレイテッド 別個のコンピュータ視覚ベース姿勢および慣性センサベース姿勢の表示
US10444845B2 (en) 2012-12-21 2019-10-15 Qualcomm Incorporated Display of separate computer vision based pose and inertial sensor based pose
JP2015114823A (ja) * 2013-12-11 2015-06-22 三菱電機株式会社 携帯用端末装置
JP2019185475A (ja) * 2018-04-12 2019-10-24 富士通株式会社 特定プログラム、特定方法及び情報処理装置

Also Published As

Publication number Publication date
KR100823649B1 (ko) 2008-04-21
JP4726194B2 (ja) 2011-07-20
DE602006020651D1 (de) 2011-04-28
EP1708139A3 (en) 2008-11-19
EP1708139A2 (en) 2006-10-04
US20060221098A1 (en) 2006-10-05
KR20060106773A (ko) 2006-10-12
US7542051B2 (en) 2009-06-02
CN100426198C (zh) 2008-10-15
CN1841272A (zh) 2006-10-04
EP1708139B1 (en) 2011-03-16

Similar Documents

Publication Publication Date Title
JP4726194B2 (ja) キャリブレーション方法及び装置
JP7068562B2 (ja) 拡張現実データを記録するための手法
AU2018389234B2 (en) Method for calibrating an augmented reality device
JP4739002B2 (ja) 画像処理方法、画像処理装置
EP2818977A1 (en) Image processing apparatus, image processing method, program, and storage medium
US20170221264A1 (en) Methods and Systems for Navigation within Virtual Reality Space using Head Mounted Display
JP2005108108A (ja) 三次元cg操作装置および方法、並びに位置姿勢センサのキャリブレーション装置
JP2010072477A (ja) 画像表示装置、画像表示方法及びプログラム
JP2008210276A (ja) 三次元モデル情報の生成方法及び装置
JP4912224B2 (ja) 画像表示システム、及びその制御方法
JP2007034628A (ja) 画像処理方法及び装置
JP2006285609A (ja) 画像処理方法、画像処理装置
JP2012174238A5 (ja)
JP6494305B2 (ja) 情報処理装置、表示装置、および情報処理方法
JP4630647B2 (ja) 画像提示方法及び情報処理装置
JP2006277618A (ja) 画像生成装置及び方法
JP2006252059A (ja) 画像処理方法、画像処理装置
JP2014197776A (ja) 表示装置及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080313

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080313

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100928

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101001

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110301

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110408

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110411

R150 Certificate of patent or registration of utility model

Ref document number: 4726194

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140422

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees