JP5923603B2 - 表示装置、ヘッドマウントディスプレイ、校正方法及び校正プログラム、並びに記録媒体 - Google Patents

表示装置、ヘッドマウントディスプレイ、校正方法及び校正プログラム、並びに記録媒体 Download PDF

Info

Publication number
JP5923603B2
JP5923603B2 JP2014518158A JP2014518158A JP5923603B2 JP 5923603 B2 JP5923603 B2 JP 5923603B2 JP 2014518158 A JP2014518158 A JP 2014518158A JP 2014518158 A JP2014518158 A JP 2014518158A JP 5923603 B2 JP5923603 B2 JP 5923603B2
Authority
JP
Japan
Prior art keywords
calibration
real environment
display device
unit
feature point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014518158A
Other languages
English (en)
Other versions
JPWO2013179427A1 (ja
Inventor
明 後藤田
明 後藤田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Corp filed Critical Pioneer Corp
Publication of JPWO2013179427A1 publication Critical patent/JPWO2013179427A1/ja
Application granted granted Critical
Publication of JP5923603B2 publication Critical patent/JP5923603B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B2027/0192Supplementary details
    • G02B2027/0196Supplementary details having transparent supporting structure for display mounting, e.g. to a window or a windshield
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本発明は、現実環境に対して情報を付加提示する技術分野に関する。
従来から、ヘッドマウントディスプレイなどの光学透過可能な表示装置を用いて、CG(Computer Graphics)や文字等の付加情報を、現実環境に対して付加提示する拡張現実感(AR:Augment Reality)に関する技術が提案されている。また、このような光学透過可能な表示装置を用いたAR(以下では適宜「光学透過式AR」と呼ぶ。)に関して、ユーザの視点から見た現実像の位置と情報の表示位置とのずれを補正するために校正を行う技術が提案されている。
例えば、非特許文献1には、現実環境上のマーカの位置とディスプレイの表示位置とをユーザが合わせて、その際の情報に基づいて校正を行う技術が記載されている。また、特許文献1には、ユーザ毎に校正を行うのではなく、以前校正を行った際の眼球の位置と現在の眼球の位置とのずれを告知することで、再校正せずに合成位置のずれを無くすことが記載されている。
また、特許文献2には、光学透過型ヘッドマウントディスプレイと外界撮影用のカメラと視線検出手段とを有する装置に関して、ユーザの視線の動きにより外界撮影用カメラ内の特定の範囲を選択し、その選択範囲をカメラから画像情報として取り込んで処理する技術が記載されている。この技術では、例えば、英文を朗読中に、視線による指定領域を画像処理し、判読、翻訳してデータを表示している。また、特許文献3には、医用ディスプレイ装置に関して、瞳孔位置を正確に検出して、その瞳孔の位置に応じて表示の位置を補正することが記載されている。
特開2006−133688号公報 特開2000−152125号公報 特開2008−18015号公報
加藤博一,Mark Billinghurst,浅野浩一,橘啓八郎,"マーカー追跡に基づく拡張現実感システムとそのキャリブレーション",日本バーチャルリアリティ学会論文誌,Vol.4,No.4,pp.607-616,1999
非特許文献1に記載された技術では、マーカを用いる必要があり、屋外の使用においてもユーザは校正のためにマーカを所持している必要があった。
他方で、特許文献1に記載の技術は、眼の位置を自由に変更可能な構成が必要であり、さらには、カメラや表示装置の設定や位置の変更をしたい場合には適用できなかった。また、特許文献2に記載の技術では、校正を行っていないため、所望の位置から表示の位置がずれる可能性があった。また、特許文献3に記載の技術は、カメラや表示装置の設定や位置の変更をしたい場合には適用できなかった。
ところで、非特許文献1及び特許文献1乃至3には、現実環境に存在する自然特徴点に基づいて校正を行うことについては記載されていない。
本発明が解決しようとする課題は上記のようなものが例として挙げられる。本発明は、自然特徴点に基づいて適切に校正を行うことが可能な表示装置、ヘッドマウントディスプレイ、校正方法及び校正プログラム、並びに記録媒体を提供することを課題とする。
請求項1に記載の発明では、ユーザが視認する現実環境に対して付加情報を表示する光学透過式の表示装置は、前記現実環境の特定位置を検出する位置検出手段と、前記現実環境の特定位置と前記表示装置の特定位置との対応を取得することで、前記現実環境の特定位置における前記位置検出手段の第1座標系から前記表示装置の第2座標系へ変換をするための校正データを算出する校正手段と、前記現実環境を撮影装置で撮影した撮影画像を解析して、前記校正データの算出に適した自然特徴点を含む最適方向を判定する判定手段と、を備え、前記判定手段によって判定された最適方向に含まれる前記自然特徴点の位置を、前記位置検出手段を用いて検出することで、前記校正手段における前記現実環境の特定位置を特定する。
請求項12に記載の発明では、ユーザが視認する現実環境に対して付加情報を表示する光学透過式のヘッドマウントディスプレイは、前記現実環境の特定位置を検出する位置検出手段と、前記現実環境の特定位置と前記ヘッドマウントディスプレイの特定位置との対応を取得することで、前記現実環境の特定位置における前記位置検出手段の第1座標系から前記ヘッドマウントディスプレイの第2座標系へ変換をするための校正データを算出する校正手段と、前記現実環境を撮影装置で撮影した撮影画像を解析して、前記校正データの算出に適した自然特徴点を含む最適方向を判定する判定手段と、を備え、前記判定手段によって判定された最適方向に含まれる前記自然特徴点の位置を、前記位置検出手段を用いて検出することで、前記校正手段における前記現実環境の特定位置を特定する。
請求項13に記載の発明では、ユーザが視認する現実環境に対して付加情報を表示する光学透過式の表示装置によって実行される校正方法は、前記現実環境の特定位置を検出する位置検出工程と、前記現実環境の特定位置と前記表示装置の特定位置との対応を取得することで、前記現実環境の特定位置における前記位置検出工程にて規定される第1座標系から前記表示装置の第2座標系へ変換をするための校正データを算出する校正工程と、前記現実環境を撮影装置で撮影した撮影画像を解析して、前記校正データの算出に適した自然特徴点を含む最適方向を判定する判定工程と、を備え、前記判定工程によって判定された最適方向に含まれる前記自然特徴点の位置を、前記位置検出工程にて検出することで、前記校正工程における前記現実環境の特定位置を特定する。
請求項14に記載の発明では、コンピュータを有し、ユーザが視認する現実環境に対して付加情報を表示する光学透過式の表示装置によって実行される校正プログラムは、前記コンピュータを、前記現実環境の特定位置を検出する位置検出手段、前記現実環境の特定位置と前記表示装置の特定位置との対応を取得することで、前記現実環境の特定位置における前記位置検出手段にて規定される第1座標系から前記表示装置の第2座標系へ変換をするための校正データを算出する校正手段、前記現実環境を撮影装置で撮影した撮影画像を解析して、前記校正データの算出に適した自然特徴点を含む最適方向を判定する判定手段、として機能させ、前記判定手段によって判定された最適方向に含まれる前記自然特徴点の位置を、前記位置検出手段にて検出することで、前記校正手段における前記現実環境の特定位置を特定する。
請求項16に記載の発明では、ユーザが視認する現実環境に対し付加情報を表示する光学透過式の表示装置は、前記現実環境の特定位置を検出する検出手段と、前記現実環境を撮影装置で撮影した撮影画像を解析して、校正データの算出に適した特徴点を判定する判定手段と、前記特徴点の位置を前記検出手段により検出することで、前記特定位置における前記検出手段の座標系から前記表示装置の座標系へ変換するための前記校正データを算出する校正手段と、を備える。
HMDの概略構成を示す外観図である。 HMDの内部構造を概略的に示す図である。 校正を行う理由を説明するための図を示す。 本実施例に係る制御部の構成を示すブロック図である。 HMDの全体処理を示すフローチャートである。 本実施例に係る校正処理を示すフローチャートである。
本発明の1つの観点では、ユーザが視認する現実環境に対して付加情報を表示する光学透過式の表示装置は、前記現実環境の特定位置を検出する位置検出手段と、前記現実環境の特定位置と前記表示装置の特定位置との対応を取得することで、前記現実環境の特定位置における前記位置検出手段の第1座標系から前記表示装置の第2座標系へ変換をするための校正データを算出する校正手段と、前記現実環境を撮影装置で撮影した撮影画像に基づいて、前記現実環境に存在する自然特徴点において、前記校正データの算出に適した自然特徴点を判定する判定手段と、を備え、前記判定手段によって判定された前記自然特徴点の位置を、前記位置検出手段を用いて検出することで、前記校正手段における前記現実環境の特定位置を特定する。
上記の表示装置は、光学透過式ARを実現可能に構成され、ユーザが視認する現実環境に対して付加情報を表示する。位置検出手段は、現実環境の特定位置を検出する。校正手段は、現実環境の特定位置と表示装置の特定位置との対応を取得することで、現実環境の特定位置における位置検出手段の第1座標系から表示装置の第2座標系へ変換をするための校正データを算出する。判定手段は、現実環境を撮影装置で撮影した撮影画像に基づいて、現実環境に存在する自然特徴点において、校正データの算出に適した自然特徴点を判定する。そして、表示装置は、判定手段によって判定された自然特徴点の位置を、位置検出手段を用いて検出することで、校正手段における前記現実環境の特定位置を特定する。上記の表示装置によれば、現実環境に存在する自然特徴点を用いて、表示装置の校正を適切に行うことができる。具体的には、マーカなどの人工特徴点が存在しないような環境においても適切に校正を行うことができる。
上記の表示装置の一態様では、前記判定手段によって判定された前記自然特徴点をユーザに提示する提示手段を更に備える。好適には、前記提示手段は、前記自然特徴点が含まれる現実環境の撮影画像に応じた画像を表示させる。これにより、対象としている自然特徴点をユーザに適切に把握させることができる。
上記の表示装置の他の一態様では、前記判定手段は、前記撮影画像に基づいて、前記撮影装置の撮影方向について、前記自然特徴点が含まれる最適な撮影方向を判定し、前記位置検出手段は、前記最適な撮影方向に含まれる前記自然特徴点の位置を検出し、前記第1座標系は、前記撮影装置の座標系である。
上記の表示装置において好適には、前記判定手段は、互いに似通っておらず、且つ位置が移動しない複数の自然特徴点が散在する撮影方向を、前記最適な撮影方向と判定する。このような撮影方向を用いることで、自然特徴点の位置を適切に検出し、校正データを精度良く算出することが可能となる。
上記の表示装置の他の一態様では、前記ユーザが前記自然特徴点に視線を向けている際の視線方向を検出する視線方向検出手段を更に備え、前記校正手段は、前記位置検出手段が検出した前記位置と前記視線方向検出手段が検出した前記視線方向とに基づいて、前記校正データを算出する。
上記の表示装置によれば、視線方向に基づいて校正を行うため、校正時にユーザは自然特徴点に視線を向けるといった作業を行うだけで良い。このような作業は、非特許文献1に記載されたような、表示装置やマーカを移動させて十字表示とマーカとの位置を合わせる作業よりも、校正時のユーザの負担は小さいと言える、つまり手間や時間がかからないと言える。また、表示装置が両眼用の場合、視線方向検出手段を左右それぞれに設けることで、左右の眼について同時に校正を行うことが可能となる。以上より、上記の表示装置によれば、校正時のユーザの負担を効果的に軽減することができる。
上記の表示装置の他の一態様では、前記視線方向検出手段は、前記ユーザが注視したことを入力するための入力手段を操作した際に、前記視線方向を検出する。この態様では、ユーザは、ボタンなどの入力手段を操作することで注視していることを知らせる。これにより、ユーザが自然特徴点を注視している際の視線方向を適切に検出することができる。
上記の表示装置の他の一態様では、前記視線方向検出手段は、前記ユーザが注視動作を所定時間行った際に、前記視線方向を検出する。これにより、ボタンなどを操作して注視を知らせる場合と比較して、視線方向の乱れや頭部の移動を抑制することができ、校正時の誤差要因を減らし、校正精度の向上を図ることができる。
上記の表示装置の他の一態様では、前記視線方向検出手段は、前記ユーザが瞬きを行った際に、前記視線方向を検出する。これによっても、ボタンなどを操作して注視を知らせる場合と比較して、視線方向の乱れや頭部の移動を抑制することができ、校正時の誤差要因を減らし、校正精度の向上を図ることができる。
好適な例では、前記視線方向検出手段は、前記視線方向と前記表示装置による表示面との交点に当たる、前記第2座標系での座標を求め、前記校正手段は、前記視線方向検出手段によって求められた前記座標と前記位置検出手段が検出した前記位置とに基づいて、前記校正データを算出する。
本発明の他の観点では、ユーザが視認する現実環境に対して付加情報を表示する光学透過式のヘッドマウントディスプレイは、前記現実環境の特定位置を検出する位置検出手段と、前記現実環境の特定位置と前記表示装置の特定位置との対応を取得することで、前記現実環境の特定位置における前記位置検出手段の第1座標系から前記表示装置の第2座標系へ変換をするための校正データを算出する校正手段と、前記現実環境を撮影装置で撮影した撮影画像に基づいて、前記現実環境に存在する自然特徴点において、前記校正データの算出に適した自然特徴点を判定する判定手段と、を備え、前記判定手段によって判定された前記自然特徴点の位置を、前記位置検出手段を用いて検出することで、前記校正手段における前記現実環境の特定位置を特定する。
本発明の更に他の観点では、ユーザが視認する現実環境に対して付加情報を表示する光学透過式の表示装置によって実行される校正方法は、前記現実環境の特定位置を検出する位置検出工程と、前記現実環境の特定位置と前記表示装置の特定位置との対応を取得することで、前記現実環境の特定位置における前記位置検出工程にて規定される第1座標系から前記表示装置の第2座標系へ変換をするための校正データを算出する校正工程と、前記現実環境を撮影装置で撮影した撮影画像に基づいて、前記現実環境に存在する自然特徴点において、前記校正データの算出に適した自然特徴点を判定する判定工程と、を備え、前記判定工程によって判定された前記自然特徴点の位置を、前記位置検出工程にて検出することで、前記校正工程における前記現実環境の特定位置を特定する。
本発明の更に他の観点では、コンピュータを有し、ユーザが視認する現実環境に対して付加情報を表示する光学透過式の表示装置によって実行される校正プログラムは、前記コンピュータを、前記現実環境の特定位置を検出する位置検出手段、前記現実環境の特定位置と前記表示装置の特定位置との対応を取得することで、前記現実環境の特定位置における前記位置検出手段にて規定される第1座標系から前記表示装置の第2座標系へ変換をするための校正データを算出する校正手段、前記現実環境を撮影装置で撮影した撮影画像に基づいて、前記現実環境に存在する自然特徴点において、前記校正データの算出に適した自然特徴点を判定する判定手段、として機能させ、前記判定手段によって判定された前記自然特徴点の位置を、前記位置検出手段にて検出することで、前記校正手段における前記現実環境の特定位置を特定する。
上記の校正プログラムは、記録媒体に記録した状態で好適に取り扱うことができる。
以下、図面を参照して本発明の好適な実施例について説明する。
[装置構成]
図1は、本実施例に係るヘッドマウントディスプレイ(以下、適宜「HMD」と表記する。)の概略構成を示す外観図である。図1に示すように、HMD100は、主に、透過型ディスプレイ部1と、撮像部2と、装着部3とを有する。HMD100は眼鏡型に構成されており、ユーザはHMD100を頭部に装着して使用する。HMD100は、現実環境に設けられたマーカの位置に対応するように透過型ディスプレイ部1に、本発明における「付加情報」の一例としてのCGを表示させることで、AR(拡張現実)を実現する。なお、HMD100は、本発明における「表示装置」の一例である。
撮像部2は、カメラを含んでなり、ユーザがHMD100を装着した状態でユーザの前方の現実環境を撮影する。撮像部2は、左右に並んだ2つの透過型ディスプレイ部1の間に設けられている。本実施例では、撮像部2の撮影画像に基づいて、自然特徴点やマーカの位置などを検出する。
装着部3は、ユーザの頭部に装着可能に構成された部材(眼鏡フレーム状の部材)であり、ユーザの頭部を左右両側から挟むことが可能に構成されている。
透過型ディスプレイ部1は、光学透過式に構成されており、ユーザの左右の眼にそれぞれ対応して1つずつ設けられている。ユーザは、透過型ディスプレイ部1を介して現実環境を見るとともに、透過型ディスプレイ部1に表示されるCGを見ることで、現実環境には存在しないCGが、現実環境にあたかも存在しているかのように感じることができる。つまり、AR(拡張現実)を実現することができる。
なお、撮像部2の撮影画像を用いて自然特徴点などの3次元位置を検出するため(詳細は後述する)、好適には、撮像部2はステレオカメラにて構成される。但し、ステレオカメラを用いることに限定はされず、他の例では、撮像部2に単眼カメラを用いることができる。この場合には、大きさや特徴の既知のマーカやピクチャーマーカや3次元物体を利用したり、カメラの移動による視点の違いを利用したりして、3次元位置を検出すれば良い。更に他の例では、撮像部2にTOF(Time-of-Flight)カメラと可視光カメラとを併用して、3次元位置を検出することができる。更に他の例では、レーザやプロジェクタなどによるパターン投影とカメラを利用した三角測量を利用して、3次元位置を検出することができる。
図2は、HMD100の内部構造を概略的に示す図である。図2に示すように、HMD100は、上記した透過型ディスプレイ部1や撮像部2以外に、制御部5、近赤外線光源6及び視線方向検出部7を有する。また、透過型ディスプレイ部1は、表示部1a、レンズ1b及びハーフミラー1cを有する(破線で囲った領域を参照)。
表示部1aは、LCD(Liquid Crystal Display)や、DLP(Digital Light Processing)や、有機ELなどで構成され、表示すべき画像に対応する光を出射する。なお、レーザ光源からの光をミラーでスキャンするような構成を、表示部1aに適用しても良い。このような表示部1aから出射された光は、レンズ1bで拡大等された後にハーフミラー1cで反射されて、ユーザの眼に入射する。これにより、ユーザは、ハーフミラー1cを介して、図2中の符号4で示す面(以下では適宜「表示面4」と呼ぶ。)に形成される虚像を視認することとなる。
近赤外線光源6は、近赤外線を眼球に向けて照射する。視線方向検出部7は、角膜表面での近赤外線の反射光(プルキニエ像)および瞳孔の位置を検出することで、ユーザの視線方向を検出する。例えば、視線方向の検出には、公知の角膜反射法(1つの例では、『坂下祐輔,藤吉弘亘,平田豊,“画像処理による3次元眼球運動計測”,実験力学,Vol.6,No.3,pp.236-243,2006年9月』)などを用いることができる。この手法では、HMD100の表示を注視する作業を複数回行って視線方向の検出についての校正を行うことで、ユーザがHMD100の表示上の見ている場所をより精度良く検出することができる。視線方向検出部7は、このように検出した視線方向に関する情報を制御部5に供給する。なお、視線方向検出部7は、本発明における「視線方向検出手段」の一例である。
制御部5は、図示しないCPUやRAMやROMなどを有し、HMD100の全体的な制御を行う。具体的には、制御部5は、撮像部2が撮影した撮影画像や視線方向検出部7が検出した視線方向に基づいて、CGの表示位置を校正する処理や、表示すべきCGについてのレンダリングなどを行う。制御部5が行う制御については、詳細は後述する。
なお、視線方向の検出は、上記した方法に限定はされない。他の例では、赤外線ハーフミラーで反射した眼球を撮影することで、視線方向を検出することができる。更に他の例では、単眼カメラで瞳孔や眼球や顔を検出して、視線方向を検出することができる。更に他の例では、ステレオカメラを用いて、視線方向を検出することができる。また、非接触型の視線方向の検出方法を用いることにも限定はされず、接触型の視線方向の検出方法を用いても良い。
[校正方法]
次に、本実施例に係る校正方法について具体的に説明する。
図3は、校正を行う理由を説明するための図を示す。図3(a)に示すように、HMD100では、ユーザの眼の位置と撮像部2の位置とが互いに異なるため、撮像部2によって取得される像(撮影画像)と、ユーザの眼に映る像とは互いに異なる。例えば、ユーザの眼と、撮像部2と、現実環境に設けられたマーカ200とが、図3(a)に示すような位置関係にあるものとする。この場合には、撮像部2によって取得される像P1(図3(b)参照)では、マーカ200は当該像における左側に位置するが、ユーザの眼に映る像P3(図3(c)参照)では、マーカ200は当該像における右側に位置することになる。なお、マーカ200は、現実環境の物体400に設けられている。マーカ200は、CGなどの付加情報を提示すべき対象の1つである。
ここで、撮像部2によって取得される像P1に基づいて、マーカ200の位置を検出し、当該像P1における検出した位置にCG300をそのまま合成すると、CG300とマーカ200との位置が一致した像P2が生成されることとなる。しかしながら、HMD100のような光学透過式の表示装置では、ユーザの眼の位置と撮像部2の位置との差異に応じて、校正を行う必要がある。というのは、校正を行わないと、図3(c)の像P4に示すように、ユーザの視点から見ると、マーカ200とCG300との位置と姿勢(方向)がずれてしまうおそれがあるからである。
したがって、本実施例では、制御部5は、図3(c)の像P5のように、CG300とマーカ200との位置と姿勢(方向)を一致させるように補正を行う。具体的には、制御部5は、撮像部2を基準とした像から眼を基準としたHMD100の像への変換を行うことで、当該補正を行う。つまり、制御部5は、撮像部2における座標系(以下では「撮像座標系」と呼ぶ。)から、HMD100による表示における座標系(以下では「表示座標系」と呼ぶ。)への変換を行う。なお、撮像座標系は本発明における「第1座標系」の一例であり、表示座標系は本発明における「第2座標系」の一例である。
本実施例では、制御部5は、校正として、撮像座標系から表示座標系へ変換するための行列である校正データを算出する処理(以下では適宜「校正処理」と呼ぶ。)を行う。校正データは、表示面4と撮像部2と眼との位置や姿勢の関係によって決まり、表示面4と撮像部2と眼との3つが共に同じ方向、同じ角度に同じだけ動く場合には、同じ校正データを使用しても問題ない。そのため、HMD100では、まず最初に校正データを算出し(例えばHMD100の使用開始時やユーザから要求があった際に校正データを算出する)、その後は算出した校正データを使用して上記したずれの補正を行う。
具体的には、本実施例では、制御部5は、視線方向検出部7が検出した視線方向及び撮像部2が撮影した撮影画像に基づいて、校正データを算出する。この場合、本実施例では、校正処理に最適な自然特徴点が含まれるような現実環境を用いて、制御部5は、このような現実環境の撮影画像より検出された撮像座標系での自然特徴点の位置と、ユーザが自然特徴点を注視している際に視線方向検出部7によって検出された視線方向とに基づいて、撮像座標系から表示座標系へ変換するための校正データを算出する。より詳しくは、制御部5は、撮像座標系での自然特徴点の位置と、ユーザの視線方向と表示面4との交点に当たる表示座標系の座標(以下では「視線方向座標」と呼ぶ。)とに基づいて、校正データを算出する。
本実施例では、撮像部2によって周囲の現実環境を撮影して、校正処理に最適な自然特徴点が含まれるような撮像部2の撮影方向(以下では「最適な撮影方向」又は「最適方向」と呼ぶ。)を用いて校正を行う。ここで、最適な撮影方向について具体的に説明する。校正データを正確に求めるためには、ユーザに注視させる自然特徴点のリストが、撮像部2に対して水平方向・垂直方向・奥行き方向に散らばっていることが望ましい。そのため、撮像部2の撮影方向は、自然特徴点が散らばって多数存在する方向が良いと言える。また、3次元位置を検出しやすい自然特徴点リストであることが望ましい。自然特徴点の3次元位置検出には、複数視点から撮影した画像内での自然特徴点の正確なマッチングが必要になる。例えば、壁のタイルなど同じ様な模様であると、画像間でマッチングのエラーが多くなる傾向にある。また、例えば、木の葉などの移動する物であると、撮影タイミングの異なる画像間では3次元位置が異なるため、3次元位置が正確に求められないと言える。以上より、上記した最適な撮影方向としては、互いに似通っておらず、且つ位置が移動しない複数の自然特徴点が散在するような撮影方向を用いることが望ましい。
また、本実施例では、制御部5は、このような自然特徴点を複数用いて、複数の自然特徴点について撮像座標系での自然特徴点の位置と視線方向座標とを得て、得られた複数の自然特徴点の位置と複数の視線方向座標とに基づいて校正データを算出する。具体的には、制御部5は、複数の自然特徴点の中から1つの自然特徴点を指定して、ユーザが当該自然特徴点を注視した後に別の自然特徴点を指定するといった工程を所定回数行うことにより、その都度、撮像座標系での自然特徴点の位置と視線方向座標とを求めることで、複数の自然特徴点の位置と複数の視線方向座標とを得る。この場合、制御部5は、注視すべき自然特徴点を指定するための画像(以下では「注視対象画像」と呼ぶ。)を表示させ、ユーザは、注視対象画像に応じた自然特徴点を注視した際に、校正用のユーザインターフェース(UI:User Interface)としてのボタンを押下することで、注視したことを制御部5に知らせる。例えば、制御部5は、撮影画像を縮小、切り出し、もしくはその両方を行った画像において、ユーザに注視させるべき自然特徴点を強調表示した画像(1つの例では、注視させる自然特徴点を特定の色で表示させた画像や、当該自然特徴点を丸などで囲った画像)を、注視対象画像として表示させる。
以上述べたように、制御部5は、本発明における「判定手段」、「位置検出手段」、「校正手段」及び「指定手段」の一例である。
[制御部の構成]
次に、図4を参照して、本実施例に係る制御部5の具体的な構成について説明する。
図4は、本実施例に係る制御部5の構成を示すブロック図である。図4に示すように、制御部5は、主に、校正部51と、変換行列算出部52と、レンダリング部53と、セレクタ(SEL)54とを有する。
ボタン8は、上記したように、ユーザが自然特徴点を注視した際に押下されるボタンである。ボタン8は、ユーザによって押下された際に、ユーザが自然特徴点を注視したことを示す注視完了信号を視線方向検出部7及び校正部51に出力する。なお、ボタン8は、本発明における「入力手段」の一例である。
視線方向検出部7は、ボタン8から注視完了信号が入力された際に、この際のユーザの視線方向を検出する。具体的には、視線方向検出部7は、ユーザが注視している際の視線方向と表示面4との交点に当たる、表示座標系の座標である視線方向座標(Xd、Yd)を求めて、視線方向座標(Xd、Yd)を校正部51に出力する。
校正部51は、校正制御部51aと、注視対象選択部51bと、視線方向座標蓄積部51cと、特徴点位置検出部51dと、特徴点位置蓄積部51eと、校正データ算出部51fと、最適方向判定部51gとを有する。校正部51は、所定のボタン(不図示)などが押下されることで校正開始トリガが入力された場合に、校正処理を行うことにより、校正データMを算出する。
最適方向判定部51gは、撮像部2によって撮像された撮影画像が入力され、撮影画像に、校正処理に最適な撮影方向が含まれているか否かを判定する。具体的には、最適方向判定部51gは、周囲を撮影した撮影画像を画像解析することで、互いに似通っておらず、且つ位置が移動しない複数の自然特徴点が散在するような撮影方向を検出する。最適方向判定部51gは、撮影画像から最適な撮影方向を検出した場合には、撮影画像に最適な撮影方向が含まれていることを示す最適方向検出信号を校正制御部51aに出力する。このように、最適方向判定部51gは、本発明における「判定手段」の一例に相当する。
校正制御部51aは、校正処理を制御する。具体的には、校正制御部51aは、注視対象選択部51b、校正データ算出部51f及びセレクタ54を制御する。校正制御部51aは、上記の校正開始トリガが入力されると校正処理を開始する。具体的には、校正制御部51aは、校正開始トリガが入力され、最適方向判定部51gから最適方向検出信号が入力されると、ボタン8からの注視完了信号に応じて、ユーザに注視させる自然特徴点を指定する注視対象画像を更新するための表示更新信号を注視対象選択部51bに出力する。また、校正制御部51aは、ボタン8からの注視完了信号が所定回数入力された場合に、演算トリガを校正データ算出部51fに出力すると共に、モード切替信号をセレクタ54に出力する。後述するように、校正データ算出部51fは、演算トリガが入力されると、校正データMを算出する。また、セレクタ54は、モード切替信号が入力されると、表示部1aに出力するデータを、注視対象画像に対応するデータ(注視対象画像データ)と、付加情報として表示すべきCGなどの画像データ(表示データ)とで切り替えるモード切替を行う。
注視対象選択部51bは、校正制御部51aから表示更新信号が入力された場合に、撮影画像(最適な撮影方向に対応する画像)に含まれる自然特徴点の中で、ユーザに注視させる自然特徴点を選択し(詳しくは、今回の校正処理において未だユーザに注視させていない1つの自然特徴点を選択)、当該自然特徴点に応じた注視対象画像データを生成する。例えば、注視対象選択部51bは、撮影画像を縮小した画像において、ユーザに注視させる自然特徴点を強調表示した画像(1つの例では、注視させる自然特徴点を特定の色で表示させた画像や、当該自然特徴点を丸などで囲った画像)を生成する。そして、注視対象選択部51bは、生成した注視対象画像データをセレクタ54に出力する。なお、注視対象選択部51bは、本発明における「指定手段」の一例に相当する。
視線方向座標蓄積部51cは、視線方向検出部7から視線方向座標(Xd、Yd)が入力され、視線方向座標(Xd、Yd)を蓄積する。なお、視線方向座標(Xd、Yd)は、表示座標系を基準とした自然特徴点の位置座標に相当する。
特徴点位置検出部51dは、撮像部2によって撮像された撮影画像が入力され、撮影画像から、ユーザに注視させる自然特徴点の3次元位置を検出する。具体的には、特徴点位置検出部51dは、撮影画像に対応する画像データに基づいて、注視対象選択部51bによって選択された自然特徴点の位置を示す座標(Xc、Yc、Zc)を特定し、特定した位置座標(Xc、Yc、Zc)を特徴点位置蓄積部51eに出力する。特徴点位置蓄積部51eは、特徴点位置検出部51dから出力された位置座標(Xc、Yc、Zc)を蓄積する。なお、位置座標(Xc、Yc、Zc)は、撮像座標系を基準とした自然特徴点の位置座標に相当する。このように、特徴点位置検出部51dは、本発明における「位置検出手段」の一例に相当する。
校正データ算出部51fは、校正制御部51aから演算トリガが入力されると、視線方向座標蓄積部51cに蓄積された複数の視線方向座標(Xd、Yd)、及び特徴点位置蓄積部51eに蓄積された複数の自然特徴点の位置座標(Xc、Yc、Zc)を読み出す。そして、校正データ算出部51fは、読み出した複数の視線方向座標(Xd、Yd)及び複数の位置座標(Xc、Yc、Zc)に基づいて、撮像座標系から表示座標系へ変換するための行列である校正データMを算出する。校正データ算出部51fは、校正データMを算出し終えると、その旨を示す演算終了信号を校正制御部51aに出力する。このように、校正データ算出部51fは、本発明における「校正手段」の一例に相当する。
次に、変換行列算出部52は、マーカ検出部52aと、Rmc算出部52bとを有している。変換行列算出部52は、マーカにおける座標系(以下では「マーカ座標系」と呼ぶ。)から撮像座標系へ変換するための変換行列Rmcを算出する。
マーカ検出部52aは、撮像部2によって撮像された撮像画像中のマーカの位置及びサイズを検出する。
Rmc算出部52bは、マーカ検出部52aによって検出されたマーカの位置及びサイズに基づいて、マーカ座標系から撮像座標系へ変換するための変換行列Rmcを算出する。Rmc算出部52bは、算出した変換行列Rmcをレンダリング部53に出力する。変換行列Rmcが更新されることで、マーカに追従するようにCGが表示されることとなる。
次に、レンダリング部53は、CGデータ格納部53aと、マーカto撮像座標変換部53bと、撮像to表示変換部53cとを有している。レンダリング部53は、表示すべきCGについてのレンダリングを行う。
CGデータ格納部53aは、表示すべきCGのデータ(CGデータ)が格納された記憶手段である。CGデータ格納部53aには、マーカ座標系で規定されたCGデータが格納されている。なお、CGデータ格納部53aに格納されているCGデータは、3次元(3D)データである。以下では、CGデータ格納部53aに格納されているCGデータを、「マーカ座標系データ」と適宜称する。
マーカto撮像座標変換部53bは、変換行列算出部52から変換行列Rmcが入力され、変換行列Rmcに基づいて、CGデータ格納部53aに格納されているCGデータを、マーカ座標系から撮像座標系へ変換する。以下では、マーカto撮像座標変換部53bによって変換された後の撮像部2の座標系を基準とするCGデータを、「撮像座標系データ」と適宜称する。
撮像to表示変換部53cは、校正部51から校正データMが入力され、校正データMに基づいて、マーカto撮像座標変換部53bから入力された撮像座標系データ(3D)を表示データに変換する(座標変換及び投影変換)。表示データは、表示座標系を基準とする2次元(2D)データである。撮像to表示変換部53cは、表示データをセレクタ54に出力する。
セレクタ54は、校正部51からのモード切替信号に応じて、校正部51から入力される注視対象画像データと、レンダリング部53から入力される表示データとを選択的に表示部1aに出力する。セレクタ54は、校正処理が行われるときには、注視対象画像データを表示部1aに出力し、HMD100にてCGが表示されるべきときには、表示データを表示部1aに出力する。表示部1aは、注視対象画像データに基づいて注視対象画像を表示し、表示データに基づいてCGを表示する。
[処理フロー]
次に、図5及び図6を参照して、本実施例に係る処理フローについて説明する。
図5は、HMD100の全体処理を示すフローチャートである。
まず、ステップS10では、校正処理が行われる。校正処理については詳細は後述する。次に、ステップS20では、撮像部2によって現実環境の撮影画像が取得される。即ち、HMD100は、撮像部2によって現実環境を撮影することにより、現実環境の撮影画像を取得する。
次に、ステップS30では、変換行列算出部52によって、CGなどの付加情報を提示すべき対象としてのマーカが検出され、変換行列Rmcが算出される。即ち、変換行列算出部52のマーカ検出部52aが、撮像部2によって取得された現実環境の撮影画像に基づいて、現実環境に設けられたマーカの位置、姿勢(方向)及びサイズを検出し、この検出されたマーカの位置、姿勢(方向)及びサイズに基づいて、変換行列算出部52のRmc算出部52bが変換行列Rmcを算出する。
次に、ステップS40では、表示すべきCGの表示データを生成する描画処理が行われる。描画処理では、まず、CGデータ格納部53aに格納されているマーカ座標系データが、マーカto撮像座標変換部53bによって変換行列Rmcに基づいて撮像座標系データに変換される。次に、撮像座標系データが、撮像to表示変換部53cによって、校正データMに基づいて表示データに変換される。このように生成された表示データは、セレクタ54を介して表示部1aに入力される。
次に、ステップS50では、HMD100によって、表示データに基づくCGが表示される。そして、ステップS60では、HMD100によるCGの表示を終了するか否かが判定される。終了すると判定された場合には(ステップS60:Yes)、CGの表示が終了され、終了しないと判定された場合には(ステップS60:No)、再びステップS10に係る処理が行われる。
図6は、上記したステップS10の校正処理を示すフローチャートである。
まず、ステップS111では、ユーザがHMD100の表示を注視する作業を複数回行うことで視線方向の検出についての校正を行う。
次に、ステップS112では、撮像部2によって現実環境の撮影画像が取得される。具体的には、HMD100は、撮像部2によってユーザの周囲の現実環境を撮影することで得られた、比較的広い範囲における現実環境の撮影画像を取得する。
次に、ステップS113では、校正部51の最適方向判定部51gによって、撮影画像に含まれる最適な撮影方向が検出される。具体的には、最適方向判定部51gは、撮影画像を画像解析することで、互いに似通っておらず、且つ位置が移動しない複数の自然特徴点が散在するような撮影方向を検出する。撮影画像に最適な撮影方向が含まれている場合(ステップS114:Yes)、処理はステップS116に進む。これに対して、撮影画像に最適な撮影方向が含まれていない場合(ステップS114:No)、処理はステップS115に進む。この場合には、ユーザに場所の移動が指示され(ステップS115)、再びステップS111に係る処理が行われる。つまり、ユーザに場所を移動してもらい、周囲の撮影を再度行ってもらう。
ステップS116では、ユーザの頭の向きを、検出された最適な撮影方向へ誘導する。例えば、最適な撮影方向を指し示す矢印の画像などを表示させることで、ユーザの頭の向きを誘導する。
次に、ステップS117では、校正部51によって、ユーザに注視させる自然特徴点が指定される。具体的には、校正部51の注視対象選択部51bによって選択された自然特徴点に応じた注視対象画像が表示される。そして、ステップS118では、ボタン8が押下されたか否かが判定される。つまり、ユーザが、指定された自然特徴点を注視したか否かが判定される。
ボタン8が押下された場合(ステップS118:Yes)、処理はステップS119に進む。これに対して、ボタン8が押下されていない場合(ステップS118:No)、再びステップS118に係る判定が行われる。つまり、ボタン8が押下されるまで、ステップS118の判定が繰り返し行われる。
ステップS119では、視線方向検出部7によってユーザの視線方向が検出される。具体的には、視線方向検出部7は、ユーザの視線方向と表示面4との交点に当たる、表示座標系の座標である視線方向座標(Xd、Yd)を求める。
次に、ステップS120では、撮像部2によって現実環境の撮影画像(最適な撮影方向に対応する画像)が取得される。そして、ステップS121では、校正部51の特徴点位置検出部51dによって、撮影画像から、ユーザが注視した自然特徴点の3次元位置が検出される。具体的には、特徴点位置検出部51dは、撮影画像に対応する画像データに基づいて、注視対象選択部51bによって選択された自然特徴点の位置座標(Xc、Yc、Zc)を求める。
次に、ステップS122では、ステップS119で得られた視線方向座標(Xd、Yd)と、ステップS121で得られた自然特徴点の位置座標(Xc、Yc、Zc)とが蓄積される。具体的には、視線方向座標(Xd、Yd)は視線方向座標蓄積部51cに蓄積され、自然特徴点の位置座標(Xc、Yc、Zc)は特徴点位置蓄積部51eに蓄積される。
次に、ステップS123では、ステップS117〜S122の処理が所定回数行われたか否かが判定される。判定に用いる所定回数は、例えば校正処理の精度などに応じて定められる。
ステップS117〜S122の処理が所定回数行われた場合(ステップS123:Yes)、校正部51の校正データ算出部51fによって、校正データMが算出される(ステップS124)。具体的には、校正データ算出部51fは、視線方向座標蓄積部51cに蓄積された複数の視線方向座標(Xd、Yd)と、特徴点位置蓄積部51eに蓄積された複数の自然特徴点の位置座標(Xc、Yc、Zc)とに基づいて、校正データMを算出する。そして、処理は終了する。他方で、ステップS117〜S122の処理が所定回数行われていない場合(ステップS123:No)、再びステップS117に係る処理が行われる。
なお、人間の視線方向は注視している時でも安定しない傾向にあるため、ボタン8が押下されたタイミングの視線方向のみを使用する校正処理では、校正データMの誤差が大きくなる可能性がある。したがって、ボタン8が押下されたタイミングの前後1秒程度の間の視線方向のデータを取得して、このデータに対して平均化処理やヒストグラム処理などを行って、視線方向を決定すると良い。こうすることで、校正データMの誤差を低減することが可能となる。
[作用・効果]
本実施例によれば、非特許文献1と比較して、マーカなどの人工特徴点を用いずに、自然特徴点を用いるため、マーカなどが無いような環境においても適切に校正を行うことができる。また、本実施例によれば、撮像部2による撮影画像と表示部1aの表示機能とを利用することで、校正時の自然特徴点を分かりやすく指定することができる。
また、本実施例は、前述した特許文献1、3に記載の技術と異なり、撮像部2やHMD100の設定や位置の変更、また眼の位置の変更にも適切に対応して校正することができる。
[変形例]
以下では、上記の実施例に好適な変形例について説明する。なお、下記の変形例は、任意に組み合わせて上述の実施例に適用することができる。
(変形例1)
上記した実施例では、ユーザが注視した際にボタン8を押下することでHMD100に注視を知らせていた。しかしながら、ボタン8を押す作業を行うと、その作業により集中力が削がれ視線方向が乱れたり、ボタン8を押す動作で頭部の位置にも影響が現れたりする。そのため、他の例では、ボタン8で注視の完了を知らせる代わりに、ユーザが注視動作を所定時間行った場合に、注視の完了とすることができる。つまり、ユーザが注視動作を所定時間行ったタイミングで、視線方向を検出することができる。これにより、視線方向の乱れや頭部の移動を抑制することができ、校正時の誤差要因を減らし、校正精度の向上を図ることができる。
更に他の例では、ユーザが注視動作中に瞬きを行った場合に、注視の完了とすることができる。つまり、ユーザが瞬きを行ったタイミングで、視線方向を検出することができる。これによっても、視線方向の乱れや頭部の移動を抑制することができ、校正時の誤差要因を減らし、校正精度の向上を図ることができる。
なお、ユーザが注視動作を所定時間行ったこと、及び、ユーザが注視動作中に瞬きを行ったこと、のうちのいずれかの条件が成立した際に、注視の完了と扱うこととしても良い。
(変形例2)
上記した実施例では、視線方向の検出についての校正を手動で行う例を示したが、当該校正を自動で行っても良い。その場合には、図6に示した校正処理において、ステップS111の処理を行う必要はない。また、視線方向の検出についての校正が不要なような検出方法を用いた場合には、ステップS111の処理を行う必要はない。
(変形例3)
上記した実施例では、視線方向に基づいて校正を行う例を示したが、これに限定はされない。具体的には、ユーザが自然特徴点を注視している際の視線方向と表示面4との交点に当たる視線方向座標を、表示座標系を基準とした自然特徴点の位置として求めることに限定はされない。他の例では、十字の画像などを表示させて、ユーザが表示の十字の位置と自然特徴点(指定された自然特徴点)の位置とを合わせる作業を行った際の十字の位置を、視線方向座標の代わりに、表示座標系を基準とした自然特徴点の位置として求めることができる。即ち、ユーザが表示の十字と自然特徴点の位置とを合わせて、それをボタン8などを用いて知らせる作業を繰り返し行うといった校正の手法(例えば非特許文献1に記載された手法)を、本発明に適用することも可能である。
(変形例4)
上記した実施例では、画像(注視対象画像)を表示させることで、自然特徴点をユーザに提示していた。他の例では、注視対象画像を表示させる代わりに、レーザで現実の対象位置(つまり自然特徴点)を提示することができる。
また、マーカ検出部52aは、上記したようなマーカ検出以外に、画像マーカを利用しても良いし、自然特徴点を利用しても良い。
(変形例5)
本発明は、HMD100への適用に限定はされない。本発明は、光学透過式ARを実現可能な種々のシースルーディスプレイに適用することができる。例えば、ヘッドアップディスプレイ(HUD)やシースルーディスプレイなどに適用することができる。
本発明は、ヘッドマウントディスプレイなどの光学透過式の表示装置に利用することができる。
1 透過型ディスプレイ部
1a 表示部
2 撮像部
3 装着部
4 表示面
5 制御部
6 近赤外線光源
7 視線方向検出部
51 校正部
52 変換行列算出部
53 レンダリング部
100 ヘッドマウントディスプレイ(HMD)

Claims (16)

  1. ユーザが視認する現実環境に対して付加情報を表示する光学透過式の表示装置であって、
    前記現実環境の特定位置を検出する位置検出手段と、
    前記現実環境の特定位置と前記表示装置の特定位置との対応を取得することで、前記現実環境の特定位置における前記位置検出手段の第1座標系から前記表示装置の第2座標系へ変換をするための校正データを算出する校正手段と、
    前記現実環境を撮影装置で撮影した撮影画像を解析して、前記校正データの算出に適した自然特徴点を含む最適方向を判定する判定手段と、を備え、
    前記判定手段によって判定された最適方向に含まれる前記自然特徴点の位置を、前記位置検出手段を用いて検出することで、前記校正手段における前記現実環境の特定位置を特定することを特徴とする表示装置。
  2. 前記判定手段は、前記現実環境を撮影装置で撮影した撮影画像中の自然特徴点から類似度または移動度の少なくとも一方に基づいて、前記校正データの算出に適した自然特徴点を含む最適方向を判定することを特徴とする請求項1に記載の表示装置。
  3. 前記判定手段によって判定された前記自然特徴点をユーザに提示する提示手段を更に備えることを特徴とする請求項1又は2に記載の表示装置。
  4. 前記提示手段は、前記自然特徴点が含まれる現実環境の撮影画像に応じた画像を表示させることを特徴とする請求項3に記載の表示装置。
  5. 前記判定手段は、前記撮影画像に前記自然特徴点が含まれるか否かを判定することで、前記自然特徴点が含まれる最適方向を判定し、
    前記位置検出手段は、前記最適方向に含まれる前記自然特徴点の位置を検出し、
    前記第1座標系は、前記撮影装置の座標系であることを特徴とする請求項1乃至4のいずれか一項に記載の表示装置。
  6. 前記判定手段は、互いに似通っておらず、且つ位置が移動しない複数の自然特徴点が散在する撮影方向を、前記校正データの算出に適した自然特徴点を含む最適方向と判定することを特徴とする請求項1乃至5のいずれか一項に記載の表示装置。
  7. 前記ユーザが前記自然特徴点に視線を向けている際の視線方向を検出する視線方向検出手段を更に備え、
    前記校正手段は、前記位置検出手段が検出した前記位置と前記視線方向検出手段が検出した前記視線方向とに基づいて、前記校正データを算出することを特徴とする請求項1乃至6のいずれか一項に記載の表示装置。
  8. 前記視線方向検出手段は、前記ユーザが注視したことを入力するための入力手段を操作した際に、前記視線方向を検出することを特徴とする請求項7に記載の表示装置。
  9. 前記視線方向検出手段は、前記ユーザが注視動作を所定時間行った際に、前記視線方向を検出することを特徴とする請求項7に記載の表示装置。
  10. 前記視線方向検出手段は、前記ユーザが瞬きを行った際に、前記視線方向を検出することを特徴とする請求項7に記載の表示装置。
  11. 前記視線方向検出手段は、前記視線方向と前記表示装置による表示面との交点に当たる、前記第2座標系での座標を求め、
    前記校正手段は、前記視線方向検出手段によって求められた前記座標と前記位置検出手段が検出した前記位置とに基づいて、前記校正データを算出することを特徴とする請求項7乃至10のいずれか一項に記載の表示装置。
  12. ユーザが視認する現実環境に対して付加情報を表示する光学透過式のヘッドマウントディスプレイであって、
    前記現実環境の特定位置を検出する位置検出手段と、
    前記現実環境の特定位置と前記ヘッドマウントディスプレイの特定位置との対応を取得することで、前記現実環境の特定位置における前記位置検出手段の第1座標系から前記ヘッドマウントディスプレイの第2座標系へ変換をするための校正データを算出する校正手段と、
    前記現実環境を撮影装置で撮影した撮影画像を解析して、前記校正データの算出に適した自然特徴点を含む最適方向を判定する判定手段と、を備え、
    前記判定手段によって判定された最適方向に含まれる前記自然特徴点の位置を、前記位置検出手段を用いて検出することで、前記校正手段における前記現実環境の特定位置を特定することを特徴とするヘッドマウントディスプレイ。
  13. ユーザが視認する現実環境に対して付加情報を表示する光学透過式の表示装置によって実行される校正方法であって、
    前記現実環境の特定位置を検出する位置検出工程と、
    前記現実環境の特定位置と前記表示装置の特定位置との対応を取得することで、前記現実環境の特定位置における前記位置検出工程にて規定される第1座標系から前記表示装置の第2座標系へ変換をするための校正データを算出する校正工程と、
    前記現実環境を撮影装置で撮影した撮影画像を解析して、前記校正データの算出に適した自然特徴点を含む最適方向を判定する判定工程と、を備え、
    前記判定工程によって判定された最適方向に含まれる前記自然特徴点の位置を、前記位置検出工程にて検出することで、前記校正工程における前記現実環境の特定位置を特定することを特徴とする校正方法。
  14. コンピュータを有し、ユーザが視認する現実環境に対して付加情報を表示する光学透過式の表示装置によって実行される校正プログラムであって、
    前記コンピュータを、
    前記現実環境の特定位置を検出する位置検出手段、
    前記現実環境の特定位置と前記表示装置の特定位置との対応を取得することで、前記現実環境の特定位置における前記位置検出手段にて規定される第1座標系から前記表示装置の第2座標系へ変換をするための校正データを算出する校正手段、
    前記現実環境を撮影装置で撮影した撮影画像を解析して、前記校正データの算出に適した自然特徴点を含む最適方向を判定する判定手段、として機能させ、
    前記判定手段によって判定された最適方向に含まれる前記自然特徴点の位置を、前記位置検出手段にて検出することで、前記校正手段における前記現実環境の特定位置を特定することを特徴とする校正プログラム。
  15. 請求項14に記載の校正プログラムがコンピュータにより読み取り可能に記録されていることを特徴とする記録媒体。
  16. ユーザが視認する現実環境に対し付加情報を表示する光学透過式の表示装置であって、
    前記現実環境の特定位置を検出する検出手段と、
    前記現実環境を撮影装置で撮影した撮影画像を解析して、校正データの算出に適した特徴点を判定する判定手段と、
    前記特徴点の位置を前記検出手段により検出することで、前記特定位置における前記検出手段の座標系から前記表示装置の座標系へ変換するための前記校正データを算出する校正手段と、を備える表示装置。
JP2014518158A 2012-05-30 2012-05-30 表示装置、ヘッドマウントディスプレイ、校正方法及び校正プログラム、並びに記録媒体 Active JP5923603B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2012/063986 WO2013179427A1 (ja) 2012-05-30 2012-05-30 表示装置、ヘッドマウントディスプレイ、校正方法及び校正プログラム、並びに記録媒体

Publications (2)

Publication Number Publication Date
JPWO2013179427A1 JPWO2013179427A1 (ja) 2016-01-14
JP5923603B2 true JP5923603B2 (ja) 2016-05-24

Family

ID=49672681

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014518158A Active JP5923603B2 (ja) 2012-05-30 2012-05-30 表示装置、ヘッドマウントディスプレイ、校正方法及び校正プログラム、並びに記録媒体

Country Status (3)

Country Link
US (1) US20150103096A1 (ja)
JP (1) JP5923603B2 (ja)
WO (1) WO2013179427A1 (ja)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015098211A1 (ja) * 2013-12-25 2015-07-02 ソニー株式会社 姿勢測定装置及び姿勢測定方法、画像処理装置及び画像処理方法、表示装置及び表示方法、コンピューター・プログラム、並びに画像表示システム
JP6314339B2 (ja) * 2014-01-16 2018-04-25 コニカミノルタ株式会社 眼鏡型表示装置
JP6347067B2 (ja) * 2014-01-16 2018-06-27 コニカミノルタ株式会社 眼鏡型表示装置
JP6451222B2 (ja) * 2014-11-04 2019-01-16 セイコーエプソン株式会社 頭部装着型表示装置、頭部装着型表示装置の制御方法、および、コンピュータープログラム
US9715113B2 (en) 2014-03-18 2017-07-25 Seiko Epson Corporation Head-mounted display device, control method for head-mounted display device, and computer program
EP3119286B1 (en) * 2014-03-19 2024-05-01 Intuitive Surgical Operations, Inc. Medical devices and systems using eye gaze tracking
WO2015143073A1 (en) 2014-03-19 2015-09-24 Intuitive Surgical Operations, Inc. Medical devices, systems, and methods integrating eye gaze tracking for stereo viewer
JP6465672B2 (ja) * 2015-01-29 2019-02-06 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および情報処理方法
JP6631014B2 (ja) * 2015-02-27 2020-01-15 セイコーエプソン株式会社 表示システム、及び表示制御方法
JP6334477B2 (ja) * 2015-08-24 2018-05-30 Necフィールディング株式会社 画像表示装置、画像表示方法及びプログラム
WO2018008232A1 (ja) 2016-07-04 2018-01-11 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
CN116778120A (zh) 2016-12-13 2023-09-19 奇跃公司 增强现实显示***
IT201700035014A1 (it) * 2017-03-30 2018-09-30 The Edge Company S R L Metodo e dispositivo per la visione di immagini in realta' aumentata
JP6872817B2 (ja) * 2017-04-07 2021-05-19 国立研究開発法人産業技術総合研究所 計測器装着支援装置と計測器装着支援方法
EP4123425A1 (en) 2017-05-31 2023-01-25 Magic Leap, Inc. Eye tracking calibration techniques
JP6964142B2 (ja) * 2017-11-10 2021-11-10 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、情報処理方法、及びプログラム
PL3729378T3 (pl) 2017-12-19 2022-01-10 Telefonaktiebolaget Lm Ericsson (Publ) Nagłowne urządzenie wyświetlające i sposób
TWI725574B (zh) * 2019-02-22 2021-04-21 宏達國際電子股份有限公司 頭戴式顯示裝置以及眼球追蹤游標的顯示方法
EP3760157A1 (en) 2019-07-04 2021-01-06 Scopis GmbH Technique for calibrating a registration of an augmented reality device
KR102097390B1 (ko) * 2019-10-10 2020-04-06 주식회사 메디씽큐 시선 검출 기반의 스마트 안경 표시 장치
JP7114564B2 (ja) * 2019-12-27 2022-08-08 マクセル株式会社 ヘッドマウントディスプレイ装置
US20230291889A1 (en) * 2020-07-28 2023-09-14 Sony Group Corporation Information processing apparatus
JP7034228B1 (ja) 2020-09-30 2022-03-11 株式会社ドワンゴ アイトラッキングシステム、アイトラッキング方法、及びアイトラッキングプログラム
CN113589532A (zh) * 2021-07-30 2021-11-02 歌尔光学科技有限公司 头戴设备的显示校准方法、装置、头戴设备及存储介质
JP2024005485A (ja) * 2022-06-30 2024-01-17 キヤノン株式会社 頭部装着型表示装置、状態判断装置、頭部装着型表示装置の制御方法、状態判断装置の制御方法、およびプログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11155152A (ja) * 1997-11-21 1999-06-08 Canon Inc 三次元形状情報入力方法及び装置及び画像入力装置
EP1349114A3 (en) * 2002-03-19 2011-06-15 Canon Kabushiki Kaisha Sensor calibration apparatus, sensor calibration method, program, storage medium, information processing method, and information processing apparatus
JP2004213355A (ja) * 2002-12-27 2004-07-29 Canon Inc 情報処理方法
JP4504160B2 (ja) * 2004-11-09 2010-07-14 オリンパス株式会社 合成表示装置
JP2012014455A (ja) * 2010-06-30 2012-01-19 Toshiba Corp 情報表示装置、情報表示方法

Also Published As

Publication number Publication date
US20150103096A1 (en) 2015-04-16
WO2013179427A1 (ja) 2013-12-05
JPWO2013179427A1 (ja) 2016-01-14

Similar Documents

Publication Publication Date Title
JP5923603B2 (ja) 表示装置、ヘッドマウントディスプレイ、校正方法及び校正プログラム、並びに記録媒体
CN110647237B (zh) 在人工现实环境中基于手势的内容共享
US10242504B2 (en) Head-mounted display device and computer program
TWI591378B (zh) 擴增實境系統之光學透視頭戴式顯示器之校準方法及非暫態電腦可讀媒體
US9961335B2 (en) Pickup of objects in three-dimensional display
US10467770B2 (en) Computer program for calibration of a head-mounted display device and head-mounted display device using the computer program for calibration of a head-mounted display device
JP5844880B2 (ja) ヘッドマウントディスプレイ、校正方法及び校正プログラム、並びに記録媒体
JP6454851B2 (ja) 3次元上の注視点の位置特定アルゴリズム
US20200201038A1 (en) System with multiple displays and methods of use
US20190212828A1 (en) Object enhancement in artificial reality via a near eye display interface
CN110377148B (zh) 计算机可读介质、训练对象检测算法的方法及训练设备
JP2010259605A (ja) 視線測定装置および視線測定プログラム
JP2017187667A (ja) 頭部装着型表示装置およびコンピュータープログラム
JP2017102768A (ja) 情報処理装置、表示装置、情報処理方法、及び、プログラム
JP2023511066A (ja) 頭部搭載型ディスプレイシステムにおける変形に関する補償
CN114730094A (zh) 具有人工现实内容的变焦显示的人工现实***
JP6349660B2 (ja) 画像表示装置、画像表示方法、および画像表示プログラム
JP2017108370A (ja) 頭部装着型表示装置およびコンピュータープログラム
JP2006285715A (ja) 視線検出システム
JP6701694B2 (ja) 頭部装着型表示装置およびコンピュータープログラム
CN111868605A (zh) 针对具体使用者校准能够佩戴在使用者的头部上的显示装置以用于增强显示的方法
WO2013179425A1 (ja) 表示装置、ヘッドマウントディスプレイ、校正方法及び校正プログラム、並びに記録媒体
JP6266580B2 (ja) ヘッドマウントディスプレイ、校正方法及び校正プログラム、並びに記録媒体
CN107884930B (zh) 头戴式装置及控制方法
KR101733519B1 (ko) 3차원 디스플레이 장치 및 방법

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151006

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160112

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160301

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160322

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160418

R150 Certificate of patent or registration of utility model

Ref document number: 5923603

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150