JPWO2013021458A1 - 複合現実感装置 - Google Patents

複合現実感装置 Download PDF

Info

Publication number
JPWO2013021458A1
JPWO2013021458A1 JP2013527778A JP2013527778A JPWO2013021458A1 JP WO2013021458 A1 JPWO2013021458 A1 JP WO2013021458A1 JP 2013527778 A JP2013527778 A JP 2013527778A JP 2013527778 A JP2013527778 A JP 2013527778A JP WO2013021458 A1 JPWO2013021458 A1 JP WO2013021458A1
Authority
JP
Japan
Prior art keywords
unit
calibration
pressure distribution
calibration data
mixed reality
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013527778A
Other languages
English (en)
Other versions
JP5707497B2 (ja
Inventor
明 後藤田
明 後藤田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Corp filed Critical Pioneer Corp
Publication of JPWO2013021458A1 publication Critical patent/JPWO2013021458A1/ja
Application granted granted Critical
Publication of JP5707497B2 publication Critical patent/JP5707497B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)

Abstract

複合現実感装置は、使用者の頭部に装着される装着部(110)と、現実環境の特定位置を検出する特定位置検出手段(120、231)と、現実環境に付加すべき付加情報を表示する表示部(130)とを有するヘッドマウントディスプレイ(100)と、装着部の装着状態を検出する装着状態検出手段(140)と、特定位置検出手段の座標系から表示部の座標系への変換を行うための校正データの更新処理を、装着状態検出手段によって検出された装着状態に応じて行う更新処理手段(210、220)と、を備える。

Description

本発明は、例えば光学透過式の複合現実感装置の技術分野に関する。
現実環境に、例えばCG(Computer Graphics)や文字等の情報を付加提示する複合現実感(MR:Mixed Reality)装置が知られている(例えば非特許文献1参照)。なお、複合現実感は、現実環境のもつ情報を増幅するという意味で、拡張現実感(AR:Augment Reality)と呼ばれる場合もある。
複合現実感装置には、ビデオ透過式(ビデオシースルー型)と光学透過式(光学シースルー型)とがある。ビデオ透過式の複合現実感装置は、例えば、ヘッドマウントディスプレイ(HMD:Head Mount Display)に取り付けられたカメラで撮影した現実環境の画像にCGを合成した後、CGが合成された画像をHMDに表示する。他方、光学透過式の複合現実感装置は、例えば、HMDに取り付けられたカメラで撮影した画像に基づいて現実環境の特定位置(例えばマーカー位置)を検出し、この検出した特定位置に見えるようにCGをHMDに表示することで、現実環境にCGを合成する(例えば非特許文献1参照)。
例えば非特許文献1には、光学透過式の複合現実感装置について、HMDにおける情報の表示位置の校正(キャリブレーション)に関する技術が開示されている。
なお、例えば特許文献1には、HMDの装着の有無を検出し、HMDの電源のオン(ON)/オフ(OFF)を切り換える技術が開示されている。
特開2000−278713号公報
「マーカ追跡に基づく拡張現実感システムとそのキャリブレーション」 加藤 博一,Mark Billinghurst,浅野 浩一,橘 啓八郎 バーチャルリアリティ学会論文誌 Vol.4(1999),pp.607-616
前述したような光学透過式の複合現実感装置では、HMDの装着状態が変化すると、現実環境の特定位置とHMDにおける情報の表示位置との関係がずれてしまうおそれがあるという技術的問題点がある。このため、HMDの装着状態が変化すると、複合現実感を好適に実現することができなくなってしまうおそれがある。
本発明は、例えば前述した従来の問題点に鑑みなされたものであり、例えば複合現実感を好適に実現可能な複合現実感装置を提供することを課題とする。
本発明の複合現実感装置は上記課題を解決するために、使用者の頭部に装着される装着部と、現実環境の特定位置を検出する特定位置検出手段と、前記現実環境に付加すべき付加情報を表示する表示部とを有するヘッドマウントディスプレイと、前記装着部の装着状態を検出する装着状態検出手段と、前記特定位置検出手段の座標系から前記表示部の座標系への変換を行うための校正データの更新処理を、前記装着状態検出手段によって検出された装着状態に応じて行う更新処理手段とを備える。
本発明の作用及び他の利得は次に説明する実施形態から明らかにされる。
第1実施例に係る複合現実感装置の概略構成を示す外観図(その1)である。 第1実施例に係る複合現実感装置の概略構成を示す外観図(その2)である。 第1実施例に係る複合現実感装置の構成を示すブロック図である。 第1実施例に係るDB制御部の構成を示すブロック図である。 第1実施例に係る校正部の構成を示すブロック図である。 第1実施例に係る変換行列算出部の構成を示すブロック図である。 第1実施例に係るレンダリング部の構成を示すブロック図である。 第1実施例に係る複合現実感装置の動作の流れを示すフローチャートである。 第1実施例に係る圧力分布連動校正処理の流れを示すフローチャートである。 光透過式の複合現実感装置における校正を説明するための図である。
本発明の複合現実感装置は上記課題を解決するために、使用者の頭部に装着される装着部と、現実環境の特定位置を検出する特定位置検出手段と、前記現実環境に付加すべき付加情報を表示する表示部とを有するヘッドマウントディスプレイと、前記装着部の装着状態を検出する装着状態検出手段と、前記特定位置検出手段の座標系から前記表示部の座標系への変換を行うための校正データの更新処理を、前記装着状態検出手段によって検出された装着状態に応じて行う更新処理手段と、を備える。
本発明の複合現実感装置は、ヘッドマウントディスプレイ(より具体的には、その装着部)が使用者の頭部に装着された状態で使用され、透過性を有する表示部に付加情報を表示することにより複合現実感を実現する光学透過式の複合現実感装置である。即ち、本発明の複合現実感装置によれば、その動作時には、特定位置検出手段によって現実環境の特定位置(即ち、現実環境における例えばマーカが配置された位置と姿勢(方向)や、特定形状の部分が存在する位置などの特定の位置と姿勢(方向))が検出される。特定位置検出手段は、例えば、カメラ等の撮像手段を含んでおり、撮像手段によって撮影された現実環境の画像に基づいて特定位置を検出する。なお、特定位置検出手段は、例えば、撮像手段に代えて或いは加えて、磁気センサー、超音波センサー、ジャイロ、加速度センサー、角速度センサー、GPS(Global Positioning System)、無線通信装置等を含んでいてもよい。特定位置検出手段によって特定位置が特定されると、表示部における、検出された特定位置に応じた位置に例えばCGや文字等の付加情報が表示される。これにより、現実環境には存在しない付加情報が、現実環境にあたかも存在しているかのような複合現実感を実現することができる。
本発明では特に、特定位置検出手段の座標系から表示部の座標系への変換を行うための校正データの更新処理を、装着状態検出手段によって検出された装着状態に応じて行う更新処理手段を備える。
ここで、例えば、装着部の装着状態が変化して、使用者の眼と表示部との位置関係が変化すると、複合現実感を実現するために特定位置に対応させるべき表示位置が異なってしまう。このため、何らの対策も施さなければ、装着部の装着状態が変化すると、複合現実感を実現することが困難になってしまうおそれがある。
しかるに本発明では特に、前述したように、更新処理手段は、装着状態検出手段によって検出された装着状態に応じて校正データの更新処理を行う。装着状態検出手段は、例えば、ヘッドマウントディスプレイの装着部に設けられ、使用者の頭部から加えられる圧力の分布を検出する圧力分布センサーを有し、この圧力分布センサーによって検出された圧力の分布に基づいて装着状態を検出する。本発明に係る「校正データの更新処理」とは、校正データの更新に関する処理であり、例えば、データベースに蓄積された校正データに基づいて校正データを更新する処理(即ち、校正データの自動更新処理)や、使用者に校正データを更新すべき旨を知らせる処理(即ち、再校正の促し処理)などを含む。
よって、例えば、装着部の装着状態が変化して、使用者の眼と表示部との位置関係が変化しても、校正データの更新処理(校正データの自動更新処理や再校正の促し処理)が行われることにより、複合現実感を好適に実現可能となる。
以上説明したように、本発明の複合現実感装置によれば、複合現実感を好適に実現することができる。
本発明の複合現実感装置の一態様では、前記装着状態検出手段は、前記装着部に設けられ、前記頭部から加えられる圧力の分布を検出する圧力分布センサーを有し、前記圧力分布センサーによって検出された圧力の分布に基づいて前記装着状態を検出する。
この態様によれば、圧力分布センサーによって検出される圧力の分布に基づいて、ヘッドマウントディスプレイの装着部の装着状態を高精度に検出でき、校正データの更新処理を適時に行うことができる。よって、複合現実感をより好適に実現することができる。
なお、装着状態検出手段は、例えば、ヘッドマウントディスプレイに内向きに(即ち、使用者側に向かって)取り付けられたカメラ或いは距離センサを有し、このカメラによって撮影された映像或いは距離センサによって測定された距離に基づいて装着状態を検出してもよい。
本発明の複合現実感装置の他の態様では、前記装着状態検出手段は、前記装着部の動きを検出する動き検出手段を更に有し、前記圧力分布センサーによって検出された圧力の分布及び前記動き検出手段によって検出された動きに基づいて、前記装着状態を検出する。
この態様によれば、装着状態検出手段は、例えば、装着部の動き(例えば、装着部が動く速度や加速度或いは動く距離)を動き検出手段によって検出する。
ここで、例えば、ヘッドマウントディスプレイが加速度運動をしている時は力がかかるため、圧力の分布が静止時とは異なる。このため、ヘッドマウントディスプレイが加速度運動をしている時には、装着状態が変化したと誤検出されてしまうおそれがある。
しかるに、この態様によれば、圧力分布センサーによって検出された圧力の分布及び動き検出手段によって検出された動きに基づいて、装着状態を検出するので、装着状態の誤検出を防ぐことができる。
例えば、動き検出手段によって検出される加速度が大きいときには、装着状態検出手段は、装着状態が変化したと判定する基準となる閾値を高くする。これにより、加速運動により生じる圧力分布センサーの検出値(即ち、検出される圧力分布)の変動を、装着状態の変化であると誤検出することを防ぐことができる。
或いは、例えば、動き検出手段によって検出される加速度が、所定の加速度以上である場合には、装着状態検出手段による装着状態の検出が正しく行えないおそれがあるので、装着状態検出手段による装着状態の検出を止め、校正データの更新処理を行わないようにしてもよい。
本発明の複合現実感装置の他の態様では、前記校正データを蓄積する校正データ蓄積手段を更に備え、前記更新処理手段は、前記更新処理として、前記校正データ蓄積手段に蓄積された校正データに基づいて前記校正データを更新する処理を行う。
この態様によれば、校正データ蓄積手段に蓄積された校正データに基づいて校正データが更新されるので、校正データを更新するために使用者が行う作業を低減できるので、実践上大変便利である。
本発明の複合現実感装置の他の態様では、前記更新処理手段は、前記更新処理として、前記使用者に前記校正データを更新すべき旨を知らせる処理を行う。
この態様によれば、校正データを更新すべきことを使用者が知ることができる。よって、使用者の指示に応じて校正データが更新されることで、複合現実感をより好適に実現することができる。
以下、本発明の実施例について図を参照しつつ説明する。
<第1実施例>
第1実施例に係る複合現実感装置について、図1から図9を参照して説明する。
まず、本実施例に係る複合現実感装置の概略構成について、図1及び図2を参照して説明する。
図1及び図2は、本実施例に係る複合現実感装置の概略構成を示す外観図である。
図1において、本実施例に係る複合現実感装置1は、光学透過式の複合現実感装置であり、装着部110、撮像部120及び表示部130を有するヘッドマウントディスプレイ100(以下、「HMD100」と適宜称する。)を備えている。使用者は、HMD100を装着した状態で複合現実感装置1を使用する。複合現実感装置1は、現実環境に設けられたマーカの位置に対応するように表示部130に、本発明に係る「付加情報」の一例としてのCGを表示させることで、複合現実感を実現する。なお、HMD100は、本発明に係る「ヘッドマウントディスプレイ」の一例である。
装着部110は、使用者の頭部に装着可能に構成された部材(眼鏡フレーム状の部材)であり、使用者の頭部を左右両側から挟むことが可能に構成されている。なお、装着部110は、本発明に係る「装着部」の一例である。
撮像部120は、カメラを含んでなり、使用者がHMD100を装着した状態で使用者の前方の現実環境を撮影する。撮像部120は、左右に並んだ2つの表示部130の間に設けられている。なお、撮像部120は、後述するマーカ検出部231とともに、本発明に係る「特定位置検出手段」の一例を構成する。また、本実施例では、撮像部120によって撮影される画像に基づいて、マーカの位置を検出するが、カメラを含んでなる撮像部120に代えて、磁気センサー、超音波センサー、ジャイロ、加速度センサー、角速度センサー、GPS、無線通信装置等によりマーカの位置を検出してもよい。
表示部130は、光透過性を有する表示装置であり、使用者の左右の眼にそれぞれ対応して1つずつ設けられている。使用者は、表示部130を介して現実環境を見るとともに、表示部130に表示されるCGを見ることで、現実環境には存在しないCGが、現実環境にあたかも存在しているかのように感じることができる。なお、表示部130は、本発明に係る「表示部」の一例である。表示部130は、装着部110と一体的に設けられているので、装着部110の装着状態が変化しても、表示部130と装着部110との間の位置関係は変化しない。
図2において、本実施例では特に、装着部110の使用者に接する部分に、圧力分布センサー140が設けられている。圧力分布センサー140は、使用者の頭部から装着部110に加えられる圧力の分布を検出するセンサーであり、検出した値を、図3を参照して後述するDB制御部210に出力する。なお、圧力分布センサー140は、本発明に係る「装着状態検出手段」を構成する。使用者の頭部から装着部110に加えられる圧力の分布は、装着部110の装着状態によって異なる。よって、圧力分布センサー140の検出値は、装着部110の装着状態に相当する。
次に、複合現実感装置1のより詳細な構成について、図3から図7を参照して説明する。
図3は、複合現実感装置1の構成を示すブロック図である。
図3において、複合現実感装置1は、図1及び図2を参照して前述した撮像部120、表示部130及び圧力分布センサー140に加えて、ボタン150と、DB(データベース)制御部210と、校正部220と、変換行列算出部230と、レンダリング部240と、セレクタ(SEL)250とを備えている。
ボタン150は、校正用のユーザーインターフェース(UI:User Interface)としてのボタンであり、表示部130におけるCGの表示位置を校正するための校正処理が行われる際、使用者が、表示部130に表示された校正用画像(例えば十字状の画像)と、現実環境のマーカとが一致して見える旨を示す一致信号を出力する。ボタン150から出力された一致信号は、後述する校正部220に入力される。なお、校正処理では、使用者は、表示部130に表示される校正用画像の位置と、現実環境のマーカの位置とが一致したときに、ボタン150を利用してその旨を校正部220に知らせる。
図4は、DB制御部210の構成を示すブロック図である。
図4において、DB制御部210は、圧力分布データベース211と、校正データデータベース212と、圧力分布比較部213と、DB書き込み制御部(DB write 制御部)214とを有している。
圧力分布データベース211は、圧力分布センサー140によって検出された検出値(検出圧力)を状態番号(状態No.)に対応付けて記憶するデータベースである。圧力分布センサー140の検出値及び状態No.は、後述するDB書き込み制御部214によって圧力分布データベース211に書き込まれる。圧力分布データベース211は、検出値及び状態No.を、使用者毎に区別して記憶する。即ち、圧力分布データベース211に記憶されるデータは、使用者毎に管理される。この点については、後述する校正データデータベース212についても同様である。このように圧力分布データベース211及び校正データベース211に記憶されるデータを使用者毎に管理することにより、使用者毎に適した校正処理を行うことが可能となる。なお、本実施例では、現在の圧力分布センサー140の検出値を検出値Paと適宜称する。
校正データデータベース212は、本発明に係る「校正データ蓄積手段」の一例であり、校正部220によって算出された校正データを状態No.に対応付けて記憶するデータベースである。校正データデータベース211は、校正データ及び状態No.を、使用者毎に区別して記憶する。校正部220によって算出された校正データ及び状態No.は、後述するDB書き込み制御部214によって校正データデータベース212に書き込まれる。なお、本実施例では、校正部220によって算出された校正データを校正データMaと称する。
圧力分布比較部213は、現在の圧力分布センサー140の検出値Paと、圧力分布データベース211に記憶されている検出値とを比較し、これらが一致するか否かを判定する。圧力分布比較部213は、圧力分布データベース211に記憶されている検出値のなかに、現在の圧力分布センサー140の検出値Paに一致する検出値がある場合には、その一致した検出値に対応付けられている状態No.を校正データデータベース212に出力する。また、圧力分布比較部213は、圧力分布データベース211に記憶されている検出値のなかに、現在の圧力分布センサー140の検出値Paに一致する検出値がない場合には、校正処理を開始すべき旨を示す校正開始トリガを校正部220に出力する。また、圧力分布比較部213は、現在の圧力分布センサー140の検出値PaをDB書き込み制御部214に出力する。
圧力分布比較部213は、以下の式(1)を用いて値Qを算出し、この値Qに基づいて、現在の圧力分布センサー140の検出値と、圧力分布データベース211に記憶されている検出値とが一致しているか否かを判定する。式(1)において、xは、現在の圧力分布センサー140の検出値であり、yは、圧力分布データベース211に記憶されている検出値である。
Figure 2013021458
圧力分布比較部213は、値Qが所定の閾値以下である場合、現在の圧力分布センサー140の検出値と、圧力分布データベース211に記憶されている検出値とが一致していると判定する。なお、値Qは、現在の圧力分布センサー140の検出値と、圧力分布データベース211に記憶されている検出値との間の距離に相当する。
なお、本実施例では、値Qに基づいて、現在の圧力分布センサー140の検出値と、圧力分布データベース211に記憶されている検出値とが一致しているか否かを判定する例を挙げたが、一致するか否かの判定方法は、特に限定されるものではなく、例えば、現在の圧力分布センサー140の検出値と、圧力分布データベース211に記憶されている検出値との相関性(圧力分布の類似性)を示す相関係数に基づいて一致するか否かを判定してもよい。この場合、現在の圧力分布センサー140の検出値と、圧力分布データベース211に記憶されている検出値との絶対値が異なるときにも、これらが一致すると判定し、装着部110の装着状態が同じであると判定することができる。また、圧力分布センサー140の検出値をコード化(或いは量子化)してもよい。この場合には、コード化された検出値に基づいて、現在の圧力分布センサー140の検出値と、圧力分布データベース211に記憶されている検出値とが一致するか否かを判定することで、該判定処理の高速化を図ることができる。
DB書き込み制御部214は、校正部220から演算終了信号が入力されたら、現在の圧力分布センサー140の検出値Paを圧力分布データベース211に書き込むとともに、校正部220によって算出された校正データMaを校正データデータベース212に書き込む。この際、DB書き込み制御部214は、検出値Pa及び校正データMaを、状態No.と対応付けて、それぞれ圧力分布データベース211及び校正データデータベース212に書き込む。
即ち、本実施例では、現在の圧力分布センサー140の検出値Paが圧力分布データベース211に記憶されていない場合には、状態No.が付されて圧力分布データベース211に追加されるとともに、圧力分布センサー140の検出値が検出値Paであるときに校正部220によって算出された校正データMa(言い換えれば、圧力分布センサー140の検出値が検出値Paであるときに校正処理が行われることで決定された校正データMa)が、状態No.に対応付けて(言い換えれば検出値Paに対応付けて)校正データデータベース212に追加される。
図5は、校正部220の構成を示すブロック図である。
図5において、校正部220は、前述したDB制御部210(より具体的には、圧力分布比較部213)から校正開始トリガが入力された場合に、校正処理を行うことにより、校正データを算出する。校正部220は、校正制御部221と、校正用座標生成部222と、校正用表示生成部223と、校正用マーカ位置検出部224と、データ蓄積部225と、校正データ算出部226とを有している。
校正制御部221は、校正処理を制御する。具体的には、校正制御部221は、校正用座標生成部222、校正用マーカ位置検出部224及び校正データ算出部226の動作を制御する。校正制御部221は、DB制御部210から校正開始トリガが入力されると校正処理を開始する。例えば、校正制御部221は、DB制御部210から校正開始トリガが入力されと、ボタン150からの一致信号に応じて、表示更新信号を校正用座標生成部222に出力するとともに、データ追加トリガをデータ蓄積部225に出力する。校正制御部221は、ボタン150からの一致信号が既定回数入力された場合に、演算トリガを校正データ算出部226に出力するとともに、モード切替信号をセレクタ250に出力する。後述するように、校正データ算出部226は、演算トリガが入力されると、校正データMaを算出する。また、セレクタ250は、モード切替信号が入力されると、表示部130に出力するデータを校正用画像データと表示データとで切り替えるモード切替を行う。ここで、校正処理では、使用者が、校正用のマーカが設けられた校正板を、校正用のマーカが、表示部130に表示された校正用画像(例えば十字状の画像)に一致するように移動させ、一致したときにボタン150によって一致信号を出力させる。なお、校正処理では、校正板を動かしてもよいし、HMD100を動かしてもよい。また、校正処理は、特に限定されるものではなく、例えば、現実環境における四角形等の2次元形状の物体と、表示部130における四角形等の2次元表示とが一致するように校正してもよいし、現実環境における3次元物体と、表示部130における2次元表示とが一致するように校正してもよい。また、校正処理は、校正用のマーカが設けられた校正板を固定するとともに、表示部130に表示させる校正用画像の位置、サイズ、姿勢などを変更して、校正用のマーカと校正用画像との一致を検出することで行ってもよい。
校正用座標生成部222は、校正制御部221から表示更新信号が入力された場合に、表示部130における校正用画像を表示すべき座標(Xd、Yd)を生成する。校正用座標生成部222は、生成した座標(Xd,Yd)を校正用表示生成部223及びデータ蓄積部225に出力する。
校正用表示生成部223は、校正用座標生成部222が生成した座標(Xd、Yd)に表示すべき校正用画像(例えば十字状の画像)の画像データ(以下、「校正用画像データ」と適宜称する)を生成する。校正用表示生成部223は、生成して校正用画像データをセレクタ250(図3参照)に出力する。
校正用マーカ位置検出部224は、撮像部120によって撮像された画像から校正用のマーカの位置を検出する。具体的には、校正用マーカ位置検出部224は、撮像部120から入力される画像データに基づいて、校正用のマーカの位置を示す座標(Xc、Yc、Zc)を特定し、特定した座標(Xc、Yc、Zc)をデータ蓄積部225に出力する。
データ蓄積部225は、校正制御部221からデータ追加トリガが入力されたときに、校正用座標生成部222から入力される座標(Xd、Yd)と、校正用マーカ位置検出部224から入力される座標(Xc、Yc、Zc)とを対応付けて記憶する。データ蓄積部225は、表示部130の座標系を基準としたマーカの位置座標である座標(Xd、Yd)と、撮像部120の座標系を基準としたマーカの位置座標である座標(Xc、Yc、Zc)とを対応付けたデータリストを生成して保持する。
校正データ算出部226は、校正制御部221から演算トリガが入力されると、データ蓄積部225に格納されている座標(Xd、Yd)及び座標(Xc、Yc、Zc)に基づいて、校正データMaを算出する。ここで、校正データMaは、撮像部120の座標系と表示部130の座標系との関係を校正するためのデータである。図7を参照して後述するレンダリング部240(より具体的には、撮像to表示変換部243)は、校正データMaに基づいて、表示データ(CGデータ)を撮像部120の座標系から表示部130の座標系に変換する(座標変換及び投影変換)。校正データ算出部226は、校正データMaを算出し終えると、その旨を示す演算終了信号を校正制御部221に出力する。
図6は、変換行列算出部230の構成を示すブロック図である。
図6において、変換行列算出部230は、マーカ検出部231と、Rmc算出部232とを有している。
マーカ検出部231は、撮像部120によって撮像された画像中のマーカの位置及びサイズを検出する。
Rmc算出部232は、マーカ検出部231によって検出されたマーカの位置及びサイズに基づいて、マーカの座標系から撮像部120の座標系へ変換する変換行列Rmcを算出する。Rmc算出部232は、算出した変換行列Rmcをレンダリング部240に出力する。変換行列Rmcが更新されることで、マーカに追従するようにCGが表示部130に表示される。
図7は、レンダリング部240の構成を示すブロック図である。
図7において、レンダリング部240は、表示部130に表示すべきCGについてのレンダリングを行う。レンダリング部240は、CGデータ格納部241と、マーカto撮像座標変換部242と、撮像to表示変換部243とを有している。
CGデータ格納部241は、表示部130に表示すべきCGのデータ(CGデータ)が格納された記憶手段である。CGデータ格納部241にはCGデータがマーカの座標系で格納されている。なお、CGデータ格納部241に格納されているCGデータは、3次元(3D)データである。以下では、CGデータ格納部241に格納されているCGデータを、「マーカ座標系データ」と適宜称する。
マーカto撮像座標変換部242は、変換行列算出部230から入力される変換行列Rmcに基づいて、CGデータ格納部241に格納されているCGデータをマーカの座標系から撮像部120の座標系へ変換する。以下では、マーカto撮像座標変換部242によって変換された後の撮像部120の座標系を基準とするCGデータを、「撮像座標系データ」と適宜称する。
撮像to表示変換部243は、校正データデータベース212から入力される校正データMxに基づいて、マーカto撮像座標変換部242から入力される撮像座標系データを表示データに変換する(座標変換及び投影変換)。なお、表示データは、表示部120の座標系を基準とする2次元(2D)データである。撮像to表示変換部243は、表示データをセレクタ250(図3参照)に出力する。
図3において、セレクタ250は、校正部220から入力される校正用画像データと、レンダリング部240から入力される表示データとを選択的に表示部130に出力する。セレクタ250は、校正処理が行われるときには、校正用画像データを表示部130に出力し、表示部130にCGが表示されるべきときには、表示データを表示部130に出力する。なお、表示部130は、校正用画像データに基づいて校正用画像(例えば十字状の画像)を表示し、表示データに基づいてCGを表示する。
次に、複合現実感装置1の動作について、図8及び図9を参照して説明する。
図8は、複合現実感装置1の動作の流れを示すフローチャートである。
図8において、まず、撮像部120によって現実環境の画像が取得される(ステップS10)。即ち、複合現実感装置1は、撮像部120によって現実環境を撮影することにより、現実環境の画像を取得する。
次に、変換行列算出部230によって、マーカが検出され、変換行列Rmcが算出される(ステップS20)。即ち、変換行列算出部230のマーカ検出部231が、撮像部120によって取得された現実環境の画像に基づいて、現実環境に設けられたマーカの位置、姿勢(方向)及びサイズを検出し、この検出されたマーカの位置、姿勢(方向)及びサイズに基づいて、変換行列算出部230のRmc算出部232が変換行列Rmcを算出する。
次に、圧力分布連動校正処理が行われる(ステップS30)。
図9は、圧力分布連動校正処理の流れを示すフローチャートである。
図9において、圧力分布連動校正処理では、まず、現在の圧力分布センサー140(図2及び図3参照)の検出値Paが圧力分布比較部213(図4参照)によって取得される(ステップS310)。
次に、取得された検出値Paと、現在使用中の校正データMxが算出されたときの圧力分布センサー140の検出値Pxとが圧力分布比較部213によって比較される(ステップS320)。
次に、現在の圧力分布センサー140の検出値Paと、現在使用中の校正データMxが算出されたときの圧力分布センサー140の検出値Pxとが一致するか否かが圧力分布比較部213によって判定される(ステップS330)。
検出値Paと検出値Pxとが一致すると判定された場合には(ステップS330:Yes)、校正データMx及び検出値Pxが保持される(ステップS375)。ここで、検出値Paと検出値Pxとが一致する場合には、HMD100(より具体的には、その装着部110)の装着状態は、校正データMxが算出されたときと現在とでほとんど或いは全く同じであり、使用者の眼と表示部130との位置関係はほとんど或いは全く変化していないので、現在使用中の校正データMxに基づいて撮像to表示変換部243(図7参照)によって撮像座標系データを表示データに変換することで、複合現実感を好適に実現することができる。
検出値Paと検出値Pxとが一致しないと判定された場合には(ステップS330:No)、現在の圧力分布センサー140の検出値Paと、圧力分布データベース211に記憶されている検出値Pniとが圧力分布比較部213によって比較される(ステップS340)。
次に、現在の圧力分布センサー140の検出値Paと、圧力分布データベース211に記憶されている検出値Pniとが一致するか否かが圧力分布比較部213によって判定される(ステップS350)。言い換えれば、圧力分布比較部213は、圧力分布データベース211に記憶されている検出値Pniのなかに、現在の圧力分布センサー140の検出値Paと一致する検出値Pniがあるか否かを判定する。
検出値Paと検出値Pniとが一致すると判定された場合には(ステップS350:Yes)、現在使用中の校正データMxが、検出値Pniに対応する校正データMniに変更されるとともに、検出値Pxが検出値Pniに変更される。ここで、校正データMniは、圧力分布センサー140の検出値が検出値Pniであるときに校正部220によって算出された校正データであり、検出値Pniと同じ状態No.に対応付けられて校正データデータベース212に記憶されている。検出値Paと検出値Pniとが一致する場合には、HMD100(より具体的には、その装着部110)の装着状態は、校正データMniが算出されたときと現在とでほとんど或いは全く同じであり、使用者の眼と表示部130との位置関係はほとんど或いは全く同じであるので、校正データMniに基づいて撮像to表示変換部243(図7参照)によって撮像座標系データを表示データに変換することで、複合現実感を好適に実現することができる。
検出値Paと検出値Pniとが一致しないと判定された場合には(ステップS350:No)、校正処理が行われ、校正データMaが取得される(ステップS360)。即ち、この場合(ステップS350:No)、校正部220によって校正処理が行われ、新たな校正データMaが算出される。
次に、校正データMaが校正データデータベース212に追加されるとともに、検出値Paが圧力分布データベース211に追加される(ステップS370)。即ち、校正部220の校正データ算出部226(図5参照)によって新たに算出された校正データMaは、DB制御部210のDB書き込み制御部214に入力され、DB書き込み制御部214によって校正データデータベース212に書き込まれる。この際、現在の圧力分布センサー140の検出値PaがDB書き込み制御部214によって圧力分布データベース211に書き込まれる。即ち、本実施例では、現在の圧力分布センサー140の検出値Paに一致する検出値が圧力分布データベース211に記憶されていない場合には、新たに校正処理が行われることにより新たな校正データMaが算出されるとともに、検出値Pa及び校正データMaがそれぞれ圧力分布データベース211及び校正データデータベース212に追加される。
次に、現在使用中の校正データMxが、現在の圧力分布センサー140の検出値Paに対応する新たな校正データMaに変更されるとともに、検出値Pxが検出値Paに変更される(ステップS380)。
このように、圧力分布連動校正処理では、(i)現在の圧力分布センサー140の検出値Paが現在使用中の校正データMxに対応する検出値Pxに一致する場合には、校正データはそのまま維持され、(ii)現在の圧力分布センサー140の検出値Paが圧力分布データベース211に記憶されている検出値Pniに一致する場合には、校正データは、検出値Pniに対応する校正データMniに変更され、(iii)現在の圧力分布センサー140の検出値Paが現在使用中の校正データMxに対応する検出値Pxに一致せず、かつ、圧力分布データベース211に現在の圧力分布センサー140の検出値Paに一致する検出値が無い場合には、新たに校正処理が行われることにより新たな校正データMaが算出されるとともに、検出値Pa及び校正データMaがそれぞれ圧力分布データベース211及び校正データデータベース212に追加される。
図8において、圧力分布連動校正処理の後には、表示部130に表示すべきCGの表示データを生成する描画処理が行われる(ステップS40)。描画処理では、まず、CGデータ格納部241に格納されているマーカ座標系データが、マーカto撮像座標変換部242によって変換行列Rmcに基づいて撮像座標系データに変換される。次に、撮像座標系データが、撮像to表示変換部243によって校正データMxに基づいて表示データに変換される。このように生成された表示データは、セレクタ250(図3参照)を介して表示部130に入力される。
次に、表示データに基づくCGが表示部130に表示される(ステップS50)。
次に、表示部130におけるCGの表示を終了するか否かが判定される(ステップS60)。
終了すると判定された場合には(ステップS60:Yes)、CGの表示が終了される。
終了しないと判定された場合には(ステップS60:No)、再びステップS10に係る処理が行われる。
なお、本実施例では、ステップS10からS60までの処理が連続して行われる例を挙げているが、圧力分布連動校正処理(ステップS30)は、他の処理と並行して行われてもよい。
本実施例では特に、前述したように、現在の圧力分布センサー140の検出値Paが圧力分布データベース211に記憶されている検出値Pniに一致する場合には、校正データMxを、検出値Pniに対応する校正データMniに変更する(ステップS385)。よって、新たに校正処理を行うことなく、撮像to表示変換部243によって、現在のHMD100の装着状態に適した校正データMniに基づいて撮像座標系データを表示データに変換することができる。したがって、校正処理に必要な時間や使用者の作業を無くすことができるとともに、複合現実感を好適に実現することができる。
更に、本実施例では特に、前述したように、現在の圧力分布センサー140の検出値Paが現在使用中の校正データMxに対応する検出値Pxに一致せず、かつ、圧力分布データベース211に現在の圧力分布センサー140の検出値Paに一致する検出値が無い場合には、新たに校正処理が行われることにより新たな校正データMaが算出されるとともに、検出値Pa及び校正データMaがそれぞれ圧力分布データベース211及び校正データデータベース212に追加される(ステップS360、S370及びS380)。よって、現在のHMD100の装着状態が、現在使用中の校正データMxが算出されたときのHMD100の装着状態と異なっていることを検出でき、新たな校正処理を確実に行うことができる。したがって、新たな校正処理によって適切な校正データMaを算出できるので、複合現実感を好適に実現することができる。更に、検出値Pa及び校正データMaがそれぞれ圧力分布データベース211及び校正データデータベース212に追加されるので、その後、圧力分布センサー140の検出値が検出値Paに一致した場合には、この検出値Paに対応する校正データMaに基づいて撮像to表示変換部243によって撮像座標系データを表示データに変換されることにより、校正処理を行うことなく、複合現実感を好適に実現することができる。
なお、一変形例として、図9において、検出値Paと検出値Pniとが一致しないと判定された場合には(ステップS350:No)、ステップS360に係る処理(即ち、校正処理)に代えて、使用者に校正データを更新すべき旨を知らせる処理を行ってもよい。この場合には、校正データを更新すべきことを使用者が知ることができる。よって、使用者の指示に応じて校正処理が行われ、校正データが更新されることで、複合現実感を好適に実現することができる。
また、他の変形例として、圧力分布センサー140に加えて、加速度センサーあるいはジャイロセンサーを含んでなる、装着部110の動きを検出する動き検出手段を設けてもよい。例えば、動き検出手段によって検出される加速度が大きいときには、装着部100の装着状態が変化したと判定する基準となる圧力の閾値を高くしてもよい。これにより、加速運動により生じる圧力分布センサー140の検出値(即ち、検出される圧力分布)の変動を、装着部100の装着状態の変化であると誤検出することを防ぐことができる。
或いは、例えば、動き検出手段によって検出される加速度が、所定の加速度以上である場合には、装着部110の装着状態の検出が正しく行えないおそれがあるので、装着部110の装着状態の検出を止め、校正データの更新処理を行わないようにしてもよい。
次に、光学透過式の複合現実感装置である複合現実感装置1における校正について図10を参照して説明を加える。
図10は、複合現実感装置1における校正を説明するための図である。
図10(a)において、撮像部120及び表示部130を有するヘッドマウントディスプレイ100では、使用者の眼910の位置と撮像部120の位置とが互いに異なるため、撮像部120によって取得される画像と、使用者の眼910に映る画像とは互いに異なる。例えば、使用者の眼910と、撮像部120と、現実環境に設けられたマーカ700とが図10(a)に示すような位置関係にある場合、撮像部120によって取得される画像P1(図10(b)参照)では、マーカ700は当該画像における左側に位置し、使用者の眼910に映る画像P3(図10(c)参照)では、マーカ700は当該画像における右側に位置することになる。なお、マーカ700は、現実環境の物体1100に設けられている。
ここで、撮像部120によって取得される画像P1に基づいて、マーカ700の位置を検出し、画像P1における検出した位置にCG600を合成することで、CG600とマーカ700との位置が一致した画像P2を生成することができる。複合現実感装置1のように、光学透過式の複合現実感装置では、使用者の眼910の位置と撮像部120の位置との差異に応じて、校正を行う必要がある。校正が行われない場合、図10(c)の画像P4のように、表示部130にCG600を表示させたときに、マーカ700とCG600との位置と姿勢(方向)がずれてしまうおそれがある。しかるに、校正(本実施例では、校正データに基づく撮像座標系データの表示データへの変換)が行われることにより、図10(c)の画像P5のように、CG600とマーカ700との位置と姿勢(方向)を一致させることができる。
以上説明したように、本実施例に係る複合現実感装置1によれば、圧力分布センサー140の検出値に基づいて、HMD100の装着状態を検出し、検出された装着状態に応じて校正データの更新を行うので、複合現実感を好適に実現することができる。
本発明は、前述した実施例に限られるものではなく、請求の範囲及び明細書全体から読み取れる発明の要旨或いは思想に反しない範囲で適宜変更可能であり、そのような変更を伴う複合現実感装置もまた本発明の技術的範囲に含まれるものである。
1 複合現実感装置
100 ヘッドマウントディスプレイ(HMD)
110 装着部
120 撮像部
130 表示部
140 圧力分布センサー
150 ボタン
210 DB制御部
211 圧力分布データベース
212 校正データデータベース
213 圧力分布比較部
214 DB書き込み制御部
220 校正部
221 校正制御部
222 校正用座標生成部
223 校正用表示生成部
224 校正用マーカ位置検出部
225 データ蓄積部
226 校正データ算出部
230 変換行列算出部
240 レンダリング部
250 セレクタ
この態様によれば、校正データを更新すべきことを使用者が知ることができる。よって、使用者の指示に応じて校正データが更新されることで、複合現実感をより好適に実現することができる。
本発明の複合現実感装置の他の態様では、前記装着状態検出手段は、前記装着部に設けられ、前記装着部と前記頭部との距離を検出する距離検出手段を有し、前記距離検出手段によって検出された前記装着部と前記頭部との距離に基づいて前記装着状態を検出する。
上述の如く、距離検出手段を有する態様では、前記距離検出手段は、前記頭部に向けて配置されたカメラ又は距離センサーであってもよい。

Claims (5)

  1. 使用者の頭部に装着される装着部と、現実環境の特定位置を検出する特定位置検出手段と、前記現実環境に付加すべき付加情報を表示する表示部とを有するヘッドマウントディスプレイと、
    前記装着部の装着状態を検出する装着状態検出手段と、
    前記特定位置検出手段の座標系から前記表示部の座標系への変換を行うための校正データの更新処理を、前記装着状態検出手段によって検出された装着状態に応じて行う更新処理手段と、
    を備えたことを特徴とする複合現実感装置。
  2. 前記装着状態検出手段は、前記装着部に設けられ、前記頭部から加えられる圧力の分布を検出する圧力分布センサーを有し、前記圧力分布センサーによって検出された圧力の分布に基づいて前記装着状態を検出することを特徴とする請求項1に記載の複合現実感装置。
  3. 前記装着状態検出手段は、前記装着部の動きを検出する動き検出手段を更に有し、前記圧力分布センサーによって検出された圧力の分布及び前記動き検出手段によって検出された動きに基づいて、前記装着状態を検出することを特徴とする請求項2に記載の複合現実感装置。
  4. 前記校正データを蓄積する校正データ蓄積手段を更に備え、
    前記更新処理手段は、前記更新処理として、前記校正データ蓄積手段に蓄積された校正データに基づいて前記校正データを更新する処理を行う
    ことを特徴とする請求項1に記載の複合現実感装置。
  5. 前記更新処理手段は、前記更新処理として、前記使用者に前記校正データを更新すべき旨を知らせる処理を行うことを特徴とする請求項1に記載の複合現実感装置。
JP2013527778A 2011-08-09 2011-08-09 複合現実感装置 Active JP5707497B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2011/068136 WO2013021458A1 (ja) 2011-08-09 2011-08-09 複合現実感装置

Publications (2)

Publication Number Publication Date
JPWO2013021458A1 true JPWO2013021458A1 (ja) 2015-03-05
JP5707497B2 JP5707497B2 (ja) 2015-04-30

Family

ID=47668010

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013527778A Active JP5707497B2 (ja) 2011-08-09 2011-08-09 複合現実感装置

Country Status (3)

Country Link
US (1) US20140176609A1 (ja)
JP (1) JP5707497B2 (ja)
WO (1) WO2013021458A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5821464B2 (ja) * 2011-09-22 2015-11-24 セイコーエプソン株式会社 頭部装着型表示装置
TWI571827B (zh) * 2012-11-13 2017-02-21 財團法人資訊工業策進會 決定3d物件影像在3d環境影像中深度的電子裝置及其方法
JP6505354B2 (ja) * 2013-03-21 2019-04-24 株式会社Nttドコモ 表示装置
GB201305402D0 (en) 2013-03-25 2013-05-08 Sony Comp Entertainment Europe Head mountable display
JP6394107B2 (ja) * 2014-06-23 2018-09-26 富士通株式会社 キャリブレーション装置、キャリブレーション方法、表示制御装置および表示制御方法
JP6515512B2 (ja) * 2014-12-09 2019-05-22 コニカミノルタ株式会社 表示装置、表示装置のキャリブレーション方法、およびキャリブレーションプログラム
US9904053B2 (en) * 2014-12-25 2018-02-27 Seiko Epson Corporation Display device, and method of controlling display device
JP6565310B2 (ja) * 2015-05-08 2019-08-28 セイコーエプソン株式会社 表示装置、表示装置の制御方法、及び、プログラム
MX2020006407A (es) 2017-12-19 2020-09-07 Ericsson Telefon Ab L M Dispositivo de presentacion visual montado en la cabeza y metodo del mismo.
US10902680B2 (en) * 2018-04-03 2021-01-26 Saeed Eslami Augmented reality application system and method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0651901A (ja) * 1992-06-29 1994-02-25 Nri & Ncc Co Ltd 視線認識によるコミュニケーション装置
JP2002228442A (ja) * 2000-11-30 2002-08-14 Mixed Reality Systems Laboratory Inc 位置姿勢の決定方法及び装置並びに記憶媒体
JP2008146109A (ja) * 2006-12-05 2008-06-26 Canon Inc 画像処理方法、画像処理装置
JP2011002753A (ja) * 2009-06-22 2011-01-06 Sony Corp 頭部装着型ディスプレイ、及び、頭部装着型ディスプレイにおける画像表示方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040219978A1 (en) * 2002-10-09 2004-11-04 Namco Ltd. Image generation method, program, and information storage medium
JP4532856B2 (ja) * 2003-07-08 2010-08-25 キヤノン株式会社 位置姿勢計測方法及び装置
US7778118B2 (en) * 2007-08-28 2010-08-17 Garmin Ltd. Watch device having touch-bezel user interface
KR100974900B1 (ko) * 2008-11-04 2010-08-09 한국전자통신연구원 동적 임계값을 이용한 마커 인식 장치 및 방법
US20110012896A1 (en) * 2009-06-22 2011-01-20 Ji Maengsob Image display apparatus, 3d glasses, and method for operating the image display apparatus
WO2011097564A1 (en) * 2010-02-05 2011-08-11 Kopin Corporation Touch sensor for controlling eyewear
EP2537141B1 (en) * 2010-06-10 2016-03-30 Sartorius Stedim Biotech GmbH Assembling method, operating method, augmented reality system and computer program product

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0651901A (ja) * 1992-06-29 1994-02-25 Nri & Ncc Co Ltd 視線認識によるコミュニケーション装置
JP2002228442A (ja) * 2000-11-30 2002-08-14 Mixed Reality Systems Laboratory Inc 位置姿勢の決定方法及び装置並びに記憶媒体
JP2008146109A (ja) * 2006-12-05 2008-06-26 Canon Inc 画像処理方法、画像処理装置
JP2011002753A (ja) * 2009-06-22 2011-01-06 Sony Corp 頭部装着型ディスプレイ、及び、頭部装着型ディスプレイにおける画像表示方法

Also Published As

Publication number Publication date
JP5707497B2 (ja) 2015-04-30
WO2013021458A1 (ja) 2013-02-14
US20140176609A1 (en) 2014-06-26

Similar Documents

Publication Publication Date Title
JP5707497B2 (ja) 複合現実感装置
KR102517876B1 (ko) 증강 현실 데이터를 레코딩하기 위한 기술
EP3469457B1 (en) Modular extension of inertial controller for six dof mixed reality input
JP5923603B2 (ja) 表示装置、ヘッドマウントディスプレイ、校正方法及び校正プログラム、並びに記録媒体
US7330197B2 (en) Mixed reality exhibiting method and apparatus
JP6008397B2 (ja) 光学式シースルー型hmdを用いたarシステム
JP4434890B2 (ja) 画像合成方法及び装置
KR102079097B1 (ko) 투명 디스플레이를 이용한 증강현실 구현 장치 및 그 방법
EP3334148A1 (en) Ocular video stabilization
JP4137078B2 (ja) 複合現実感情報生成装置および方法
JP5844880B2 (ja) ヘッドマウントディスプレイ、校正方法及び校正プログラム、並びに記録媒体
JP6491574B2 (ja) Ar情報表示装置
US10304253B2 (en) Computer program, object tracking method, and display device
CN114761909A (zh) 针对头戴式显示器的内容稳定
JP2006301924A (ja) 画像処理方法および画像処理装置
JP2018067115A (ja) プログラム、追跡方法、追跡装置
JP4847195B2 (ja) 画像からの色情報の取得方法
JP2007233971A (ja) 画像合成方法及び装置
JP2016122392A (ja) 情報処理装置、情報処理システム、その制御方法及びプログラム
JP2014106642A (ja) 光学式シースルー型hmdを用いたarシステム
KR101900475B1 (ko) 증강현실 객체의 정합을 위한 캘리브레이션 방법 및 이를 수행하기 위한 헤드 마운트 디스플레이
US20220300120A1 (en) Information processing apparatus, and control method
JP6266580B2 (ja) ヘッドマウントディスプレイ、校正方法及び校正プログラム、並びに記録媒体
JP2018156239A (ja) 操作支援装置
JP2021009557A (ja) 情報処理装置、情報処理方法、及びプログラム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150224

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150302

R150 Certificate of patent or registration of utility model

Ref document number: 5707497

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150