JP2012194492A - ヘッドマウントディスプレイ及びヘッドマウントディスプレイのためのコンピュータプログラム - Google Patents
ヘッドマウントディスプレイ及びヘッドマウントディスプレイのためのコンピュータプログラム Download PDFInfo
- Publication number
- JP2012194492A JP2012194492A JP2011059951A JP2011059951A JP2012194492A JP 2012194492 A JP2012194492 A JP 2012194492A JP 2011059951 A JP2011059951 A JP 2011059951A JP 2011059951 A JP2011059951 A JP 2011059951A JP 2012194492 A JP2012194492 A JP 2012194492A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- display
- user
- position information
- head mounted
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Liquid Crystal Display Device Control (AREA)
- Control Of Indicators Other Than Cathode Ray Tubes (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
【課題】ユーザに対してオブジェクトを好適に表示することができる、ヘッドマウントディスプレイ(HMD)及びHMDのためのコンピュータプログラムを提供することを目的とする。
【解決手段】シースルー型のHMDである。HMDが有する表示部は、オブジェクトを表示する。検知部は、HMDの向きを検知する。設定部は、ユーザが視認する視認対象の距離を設定する。取得手段は、HMDの向きに従い、HMDを基準とした位置を示す位置情報に関連付けられたオブジェクトを取得する。表示制御手段は、位置情報に対応した位置に配置された状態で、取得されたオブジェクトを表示する。抽出手段は、設定された距離に対応するオブジェクトを抽出する。強調処理手段は、抽出されたオブジェクトを強調する(S114)。表示制御手段は、オブジェクトを表示する場合、オブジェクトを強調された状態とする。
【選択図】図3
【解決手段】シースルー型のHMDである。HMDが有する表示部は、オブジェクトを表示する。検知部は、HMDの向きを検知する。設定部は、ユーザが視認する視認対象の距離を設定する。取得手段は、HMDの向きに従い、HMDを基準とした位置を示す位置情報に関連付けられたオブジェクトを取得する。表示制御手段は、位置情報に対応した位置に配置された状態で、取得されたオブジェクトを表示する。抽出手段は、設定された距離に対応するオブジェクトを抽出する。強調処理手段は、抽出されたオブジェクトを強調する(S114)。表示制御手段は、オブジェクトを表示する場合、オブジェクトを強調された状態とする。
【選択図】図3
Description
本発明は、ヘッドマウントディスプレイ及びヘッドマウントディスプレイのためのコンピュータプログラムに関する。
従来から、頭部装着型映像表示システムに関する提案がなされている(例えば、特許文献1参照)。特許文献1の頭部装着型映像表示システムは、観察者の頭部が変位した際に、観察者変位状態出力装置にその変位方向及び変位量を検知し信号を出力させ、虚像位置移動手段により虚像を変位方向とは逆向きに所定の範囲内で移動させるようにしたものである。特許文献1の頭部装着型映像表示システムによれば、虚像が空中に浮かんだままほぼ固定されている感覚で観察できる。
この他、セカイカメラ(登録商標)と称されるカメラ機能付き携帯端末機のためのアプリケーションプログラム(コンピュータプログラム)も実用化されている(例えば、非特許文献1)
頓智ドット株式会社、"Sekai Camera BEYOND REALITY"、[online]、[平成23年2月10日検索]、インターネット< http://sekaicamera.com/ >
ところで、所定の情報を含むオブジェクトを、オブジェクトに関連した適切な位置に配置させて表示することが要求される場合がある。ここで、ヘッドマウントディスプレイは、携帯性に優れ、所望する場所で、所望のオブジェクトを表示することができる。ヘッドマウントディスプレイが携帯されると、ヘッドマウントディスプレイの地理的位置は、変化する。このような場合、ヘッドマウントディスプレイが存在している地理的位置を基準として、オブジェクトの配置を行うと、適切な位置にオブジェクトを配置することができなくなる。ユーザは、適切な位置に配置されたオブジェクトを視認することができない。
また、一度に複数のオブジェクトが表示されると、複数のオブジェクトをそれぞれ適切に識別することが困難となる場合がある。このような状態では、オブジェクトを見誤り、間違った理解をしてしまうこともある。
なお、特許文献1に開示されている技術は、複合現実や拡張現実における表示技術に関連したものであって、上述した問題に対応するものではない。
本発明は、ユーザに対してオブジェクトを好適に表示することができる、ヘッドマウントディスプレイ及びヘッドマウントディスプレイのためのコンピュータプログラムを提供することを目的とする。
上記従来の課題に鑑みなされた本発明の一側面は、ユーザの頭部に装着され、前記ユーザに対してオブジェクトを表示し、オブジェクトを視認している前記ユーザが、前記ユーザが存する外界をオブジェクトと重ねて視認することができるシースルー型のヘッドマウントディスプレイであって、オブジェクトを表示する表示部と、前記ヘッドマウントディスプレイの向きを検知する検知部と、前記ユーザが視認する視認対象の距離を設定する設定部と、前記検知部で検知された前記ヘッドマウントディスプレイの向きに従い、前記ヘッドマウントディスプレイを基準とした位置を示す位置情報に関連付けられたオブジェクトを取得する取得手段と、オブジェクトに関連付けられた位置情報に対応した位置に配置された状態で、前記取得手段で取得されたオブジェクトを、前記表示部に表示するための表示制御手段と、前記取得手段で取得されたオブジェクトのうち、前記設定部で設定された距離に対応するオブジェクトを抽出する抽出手段と、前記抽出手段で抽出されたオブジェクトを、前記抽出手段で抽出されていないオブジェクトに対して強調するための強調処理手段と、を有し、前記表示制御手段は、位置情報に対応した位置に配置された状態でオブジェクトを、前記表示部に表示する場合、前記抽出手段で抽出されたオブジェクトを、前記強調処理手段で強調された状態とする、ヘッドマウントディスプレイである。
これによれば、ヘッドマウントディスプレイを基準とした位置に、オブジェクトを配置して表示することができる。その際、設定部で設定された距離に対応するオブジェクトを、他のオブジェクトより強調された状態で表示することができる。従って、ユーザは、ヘッドマウントディスプレイと共に自身が存する地理的位置が変化しても、所望のオブジェクトを好適に視認することができる。
このヘッドマウントディスプレイは、次のような構成とすることもできる。前記表示制御手段によって前記表示部に表示されているオブジェクトのうち、特定のオブジェクトを、前記ヘッドマウントディスプレイに入力される指令に従った干渉状態とするための干渉処理手段を有する、ようにしてもよい。
これによれば、特定のオブジェクトに干渉することができる。ここで、干渉状態とは、オブジェクトに対して何らかの操作/処理が可能となる状態である。具体的な例としては、オブジェクトに関連付けられた位置情報が変更されることを含む。また、表示部における表示位置が変更された状態となることを含む。さらに、表示部に表示されているオブジェクトが、上下及び/又は左右が反転された状態で表示されることを含む。
また、前記干渉処理手段は、前記設定部で設定された距離に対応する位置情報に関連付けられたオブジェクトを、特定のオブジェクトとして、前記ヘッドマウントディスプレイに入力される指令に従った干渉状態とする、ようにしてもよい。
これによれば、設定部で設定された距離に対応するオブジェクトに干渉することができる。
また、前記表示部で表示されるオブジェクトのピントを調整するための調整部を有し、前記表示制御部は、前記設定部で設定された距離に前記ピントが合うように、前記調整部を調整する、ようにしてもよい。
これによれば、ユーザにとって、視認しているオブジェクトが、設定部で設定された距離に存在しているような状態で、オブジェクトを表示することができる。
また、複数のオブジェクトを対象として、オブジェクトに関連付けられた位置情報によって示される位置を特定するための角度を、一定角度だけオフセットさせるオフセット手段を有する、ようにしてもよい。
これによれば、複数のオブジェクトについて、位置情報によって示される位置を特定する角度を、一定角度だけオフセット(回転)させようとする場合、一括してオフセットさせることができる。ユーザは、個々のオブジェクトについて、その角度をオフセットさせるといった操作を行う必要がない。従って、角度を変更させる際の操作性を向上させることができる。
本発明の他の側面は、ユーザの頭部に装着され、前記ユーザに対してオブジェクトを表示し、オブジェクトを視認している前記ユーザが、前記ユーザが存する外界をオブジェクトと重ねて視認することができ、オブジェクトを表示する表示部と、前記ヘッドマウントディスプレイの向きを検知する検知部と、前記ユーザが視認する視認対象の距離を設定する設定部と、を有するシースルー型のヘッドマウントディスプレイを制御するコンピュータが読み取り可能なコンピュータプログラムであって、前記コンピュータを、前記検知部で検知された前記ヘッドマウントディスプレイの向きに従い、前記ヘッドマウントディスプレイを基準とした位置を示す位置情報に関連付けられたオブジェクトを取得する取得手段と、オブジェクトに関連付けられた位置情報に対応した位置に配置された状態で、前記取得手段で取得されたオブジェクトを、前記表示部に表示するための表示制御手段と、前記取得手段で取得されたオブジェクトのうち、前記設定部で設定された距離に対応するオブジェクトを抽出する抽出手段と、前記抽出手段で抽出されたオブジェクトを、前記抽出手段で抽出されていないオブジェクトに対して強調するための強調処理手段と、して機能させ、前記表示制御手段は、位置情報に対応した位置に配置された状態でオブジェクトを、前記表示部に表示する場合、前記抽出手段で抽出されたオブジェクトを、前記強調処理手段で強調された状態とする、機能を含む、コンピュータプログラムである。
これによれば、上述した優れた機能を有するヘッドマウントディスプレイを実現することができる。なお、このコンピュータプログラムは、上述した他の構成を有するヘッドマウントディスプレイのためのコンピュータプログラムとして特定することもできる。
本発明によれば、ユーザに対してオブジェクトを好適に表示することができる、ヘッドマウントディスプレイ及びヘッドマウントディスプレイのためのコンピュータプログラムを得ることができる。
本発明を実施するための実施形態について、図面を用いて説明する。本発明は、以下に記載の構成に限定されるものではなく、同一の技術的思想において種々の構成を採用することができる。例えば、以下に示す構成の一部は、省略し又は他の構成等に置換してもよい。また、他の構成を含むようにしてもよい。
<ヘッドマウントディスプレイ>
ヘッドマウントディスプレイ(以下、「HMD」という。)1は、図1に示すように、HMD本体10と、システムボックス20とで構成されている。HMD本体10とシステムボックス20とは、所定の信号ケーブル40によって通信可能に接続されている。
ヘッドマウントディスプレイ(以下、「HMD」という。)1は、図1に示すように、HMD本体10と、システムボックス20とで構成されている。HMD本体10とシステムボックス20とは、所定の信号ケーブル40によって通信可能に接続されている。
HMD本体10は、通常の眼鏡と同様のフレーム構造12を有する。HMD本体10は、フレーム構造12によって、ユーザの顔に支持される。フレーム構造12の所定の位置には、表示ボックス14が取り付けられている。表示ボックス14は、フレーム構造12に取り付けられた状態において、HMD本体10を装着したユーザの左眼と同様の高さとなる位置に配置されている。表示ボックス14には、ハーフミラー16が固定されている。
HMD1は、シースルー型のHMDである。ユーザは、HMD本体10を頭部に装着した状態において、HMD1で表示されているオブジェクトを視認しつつ、ユーザが存する外界(外界の像)を、表示されるオブジェクトと重ねて視認することができる。図1に示すHMD1では、ユーザは、左眼において、外界を、ハーフミラー16を通して視認する。
表示ボックス14には、カメラ30が設けられている。カメラ30は、HMD本体10を装着しているユーザの前方を撮像する。例えば、ユーザが、腕を前方に伸ばしたとき、カメラ30では、ユーザの手が撮像される。カメラ30は、例えば、CCDイメージセンサによって構成される。また、表示ボックス14には、物体距離調整ダイヤル70が設けられている。物体距離調整ダイヤル70については、後述する。
HMD1は、図2に示すように、CPU50と、プログラムROM52と、RAM54と、フラッシュROM56と、通信インターフェース(通信I/F)58と、メモリスロット60と、外部インターフェース(外部I/F)62と、操作部63とを有する。HMD1において、これら各部は、システムボックス20に収容されている。
CPU50は、演算処理を実行し、HMD1の全体を制御する。プログラムROM52は、HMD1で実行される各種の処理のためのコンピュータプログラムを記憶する。RAM54は、CPU50が演算処理を実行する場合等に用いられる記憶領域である。フラッシュROM56は、所定のデータを記憶する。通信I/F58は、信号ケーブル40に接続され、HMD本体10の側との間でデータ通信を行う。
メモリスロット60は、所定のメモリカードを装着するためのカードスロットである。外部I/F62は、パーソナルコンピュータ等の外部装置との接続を行うためのインターフェースである。外部装置から入力されたデータは、例えば、フラッシュROM56又はメモリスロット60に装着されたメモリカードに記憶される。外部装置から入力されるデータには、オブジェクトを示すオブジェクトデータが含まれる。HMD1では、例えば、外部I/F62から入力され、フラッシュROM56又はメモリカードに記憶されたオブジェクトデータに従い、オブジェクトが表示される。なお、メモリカードへのデータの記憶は、例えば、外部装置が有するメモリスロットにメモリカードを装着して行うようにしてもよい。操作部63は、HMD1への各種の指令を入力するための構成である。操作部63は、例えば、複数のボタン等で構成される。
HMD1は、図2に示すように、通信I/F64と、表示部66と、6軸センサ68と、物体距離調整ダイヤル70と、カメラインターフェース(カメラI/F)72とを有する。これら各部は、HMD本体10を構成する表示ボックス14に収容されている。
通信I/F64は、信号ケーブル40に接続され、システムボックス20の側との間でデータ通信を行う。表示部66は、オブジェクトを表示する。ユーザは、表示部66で表示されたオブジェクトを視認する。図1に基づくHMD本体10によれば、ユーザは、左眼で、オブジェクトを視認する。表示部66は、表示部66のための電気回路を含む。表示部66は、何れの形式の表示部であってもよい。表示部66は、例えば、網膜走査型ディスプレイ、液晶ディスプレイ、有機EL(Organic Electroluminescence)ディスプレイ等によって構成される。表示部66によるオブジェクトの表示について、例えば、液晶ディスプレイを含む表示部66である場合を例に説明する。液晶ディスプレイでは、通信I/F64で受信された信号に応じて、液晶ディスプレイの各画素が制御される。液晶ディスプレイから射出した画像光は、ハーフミラー16で反射して、ユーザの眼(図1では、左眼)に導かれ、網膜上に画像(オブジェクト)を形成する。
6軸センサ68は、HMD本体10の向き、回転等を検出する。6軸センサ68は、従来から使用されているセンサであって、例えば、3軸のジャイロセンサと、3軸の加速度センサとによって構成される。物体距離調整ダイヤル70は、ユーザが視認する視認対象の距離を設定する構成である。また、物体距離調整ダイヤル70は、表示部66に含まれ、表示部66で表示されるオブジェクトのピントを調整するための機能も有する。すなわち、表示部66を構成する光学レンズ間の距離は、物体距離調整ダイヤル70を回転させて設定された距離に応じて、物理的に変化する。例えば、液晶ディスプレイが表示部66に含まれる場合、液晶ディスプレイと、液晶ディスプレイとユーザの網膜とを共役関係にするための接眼光学系とが設けられる。そして、物体距離調整ダイヤル70の回転位置は、ロータリーエンコーダーや物体距離調整ダイヤル70の回転軸に接続された可変抵抗の値を読み取る等の方法により、オブジェクトのピント位置を示す信号として、システムボックス20に送信される。すなわち、CPU50は、この信号を受信することで、表示部66のピント位置を取得する。
接眼光学系と液晶ディスプレイとの間隔は、接眼光学系に設けられたラックと、モータの回転軸に設けられたピニオンギアとの噛合によって、変更可能に構成されている。このモータが、CPU50からの指示によって一の方向に回転されると、接眼光学系と液晶ディスプレイとの間隔が近くなる。この場合、ユーザの瞳に入射する画像光はより拡散(波面曲率が大きい)し、ピント位置は近くなる。一方、モータがCPU50からの指示によって他の方向に回転することで、接眼光学系と液晶ディスプレイとの間隔は遠くなる。この場合、ユーザの瞳に入射する画像光はより平行光に近く(波面曲率が小さく)なり、ピント位置は遠くなる。従って、ユーザは、表示されているオブジェクトを視認したとき、物体距離調整ダイヤル70によって調整された距離にオブジェクトが存在しているような印象で、表示されているオブジェクトを認識する。物体距離調整ダイヤル70を回転させることで、視度調整が行われる。なお、物体距離調整ダイヤル70の回転軸に設けられたピニオンギアが、接眼光学系に設けられたラックと噛合することで、接眼光学系と液晶ディスプレイとの間隔が変更されてもよい。この場合、モータは不要となり、ユーザが手動で物体距離調整ダイヤル70を回転させることにより、接眼光学系と液晶ディスプレイとの間隔が変更される。
カメラI/F72は、カメラ30を接続するためのインターフェースである。カメラ30で撮像された画像は、カメラI/F72から通信I/F64を介してシステムボックス20の側に送信される。
上述した各部を有するHMD1において、CPU50は、プログラムROM52に記憶された、図3に示す処理のためのコンピュータプログラムを含む各種のコンピュータプログラムを、RAM54上で実行する。その際、例えば、フラッシュROM56及び/又はメモリスロット60に装着されたメモリカードに記憶されたデータ、6軸センサ68で検知された情報、物体距離調整ダイヤル70で設定された距離、カメラ30によって撮像された画像等が用いられる。これによって、各種の機能手段が構成される。
<ヘッドマウントディスプレイで実行される処理>
HMD1で実行される処理について、図3等を参照して説明する。ユーザは、HMD1の電源をオンし、この処理の開始を、操作部63を操作し入力する。この状態において、CPU50は、上述した通り、プログラムROM52から、この処理のためのコンピュータプログラムを読み出し、この処理を開始する。この処理を開始したCPU50は、オブジェクト配置データが記憶されているかについて判断する(S100)。オブジェクト配置データは、前回、この処理が実行された際、後述するS122で、フラッシュROM56又はメモリスロット60に装着されたメモリカードに記憶される。オブジェクト配置データは、例えば、図4に示すようなテーブル構造を有するデータである。オブジェクト配置データには、オブジェクトと、位置情報としての角度及び距離とが、それぞれ、関連付けられて登録されている。オブジェクトとしては、所定の情報を示すアイコン画像、及び/又は、所定の情報を含むタグ画像が例示される。以下では、位置情報としての角度を、「角度(位置情報)」といい、位置情報としての距離を、「距離(位置情報)」ともいう。
HMD1で実行される処理について、図3等を参照して説明する。ユーザは、HMD1の電源をオンし、この処理の開始を、操作部63を操作し入力する。この状態において、CPU50は、上述した通り、プログラムROM52から、この処理のためのコンピュータプログラムを読み出し、この処理を開始する。この処理を開始したCPU50は、オブジェクト配置データが記憶されているかについて判断する(S100)。オブジェクト配置データは、前回、この処理が実行された際、後述するS122で、フラッシュROM56又はメモリスロット60に装着されたメモリカードに記憶される。オブジェクト配置データは、例えば、図4に示すようなテーブル構造を有するデータである。オブジェクト配置データには、オブジェクトと、位置情報としての角度及び距離とが、それぞれ、関連付けられて登録されている。オブジェクトとしては、所定の情報を示すアイコン画像、及び/又は、所定の情報を含むタグ画像が例示される。以下では、位置情報としての角度を、「角度(位置情報)」といい、位置情報としての距離を、「距離(位置情報)」ともいう。
HMD1が、図1に示すように、HMD本体10とシステムボックス20とで構成される場合、角度(位置情報)は、HMD本体10を基準とし、HMD本体10の向きを示す。角度(位置情報)は、HMD本体10の向きについて、後述するS106で、正面と特定された方向に対する角度を示す。図5に示す例に基づけば、正面は、角度が0°と定義され、左側の方向の角度がプラス、右側の方向の角度がマイナスと定義される。HMD本体10の向きは、6軸センサ68によって検知される。同じく、距離(位置情報)は、HMD本体10を基準とし、HMD本体10からの距離を示すものである。距離(位置情報)は、HMD本体10を中心とした円の半径に等しくなる。
図4に示すようなオブジェクト配置データによれば、オブジェクトA〜オブジェクトEは、HMD本体10に対して、図5のような配置となる。なお、HMD本体10を基準とした角度(位置情報)に関し、HMD本体10の向き(HMD本体10の向いている方向)は、ユーザの向きとみなすこともできる。また、HMD本体10を基準とした距離(位置情報)に関し、HMD本体10からの距離は、ユーザからの距離とみなすこともできる。なお、図4に示すようなオブジェクト配置データにおいて、位置情報は、角度及び距離による二次元極座標である。そのため、図4に示すようなオブジェクト配置データによれば、オブジェクトは、二次元的に配置される。この他、位置情報として、さらに仰角・俯角(上下方向)を含ませ、三次元極座標のオブジェクト配置データとしてもよい。
S100で、オブジェクト配置データが記憶されていないと判断された場合(S100:No)、CPU50は、オブジェクト配置データ作成処理を実行する(S102)。このオブジェクト配置データ作成処理の詳細は、省略するが、オブジェクト配置データ作成処理において、ユーザは、操作部63、又は、外部I/F62に接続された外部装置を操作し、所定のオブジェクトを配置する。CPU50は、配置されたオブジェクトに従い、オブジェクト配置データを作成する。作成されたオブジェクト配置データは、RAM54上に記憶される。S102の処理を実行した後、CPU50は、処理をS122に移行する。なお、S102を実行した後、処理をS104に移行し、S100の判断が肯定された場合(S100:Yes)と同様、S104以降の処理が実行されるようにしてもよい。
S100で、オブジェクト配置データが記憶されていると判断された場合(S100:Yes)、CPU50は、オブジェクト配置データを、RAM54上に読み出し、その後、処理をS104に移行する。S104でCPU50は、通信I/F58からカメラI/F72にカメラ30による撮像開始の指令を送信する。これによって、カメラ30による撮像が開始される。CPU50は、カメラI/F72から通信I/F64を介して送信されてくるカメラ30で撮像された画像を、通信I/F58を介して、RAM54上に取得する。CPU50は、RAM54上の画像を解析し、ユーザの手の位置を認識する処理を開始する。
次に、CPU50は、現在、6軸センサ68で検知されている向きを、オブジェクト配置データに対応する角度0°(正面)として特定する(S106)。CPU50は、角度0°と、オブジェクトそれぞれに関連付けられた角度(位置情報)とに従い、表示部66の画角範囲G(図5において、符号「G」を付した四角形領域参照)に含まれるオブジェクトを取得する。図4及び図5に基づけば、CPU50は、表示部66の画角範囲Gに含まれる、角度が+10°のオブジェクトAと、角度が−10°のオブジェクトBとを取得する。CPU50は、フラッシュROM56又はメモリスロット60に装着されたメモリカードにアクセスし、オブジェクトAを示すオブジェクトデータ及びオブジェクトBを示すオブジェクトデータを、RAM54上に記憶する。なお、表示部66の画角範囲Gと、カメラ30の画角範囲との関係について、カメラ30の画角範囲は表示部66の画角範囲G以上である。
CPU50は、RAM54上に記憶されたオブジェクトAを示すオブジェクトデータ及びオブジェクトBを示すオブジェクトデータに従い、取得されたオブジェクトA及びオブジェクトBが、表示部66で表示されるように制御する。このとき、オブジェクトAは、角度が0°とされた正面の方向に対して+10°の位置に配置された状態とされる。オブジェクトBは、角度が0°とされた正面の方向に対して−10°の位置に配置された状態とされる。すなわち、CPU50は、オブジェクトA及びオブジェクトBが、前述の位置に配置された画像を作成し、この画像を表示部66で表示するための制御を行う。ユーザは、図5に示す画角範囲Gを示す四角形領域内に図示されたような状態の画像(オブジェクトA及びオブジェクトB)を視認する。なお、図5に示す画角範囲Gに図示されたユーザの手は、ハーフミラー16を介してユーザが視認している、自身の手(外界の像)を示すものである。
CPU50は、この図3に示す処理において、オブジェクトを表示する場合、表示部66を構成する光学レンズ間の距離を、物体距離調整ダイヤル70で設定された距離にピントが合う位置に対応した距離に調整する。従って、表示部66で表示されるオブジェクトは、この距離にピントが合うようにされる。また、表示部66で表示されたオブジェクトを視認するユーザは、角度(位置情報)に対応した位置に配置されたオブジェクトが、物体距離調整ダイヤル70で設定された距離に対応した位置に存在しているような印象を受ける。
S106を実行した後、CPU50は、6軸センサ68で検知された情報に従い、HMD本体10の向きが変化したかについて判断する(S108)。例えば、HMD本体10を装着しているユーザの向きが変化し、これに伴い、HMD本体10の向きが変化したとき、S108の判断は肯定される(S108:Yes)。HMD本体10を装着しているユーザの向きが、継続して同一の方向であるとき、S108の判断は否定される(S108:No)。
S108の判断が肯定された場合(S108:Yes)、CPU50は、表示されているオブジェクトに替えて、変化後の向きに応じたオブジェクトを表示する(S110)。図4及び図5に基づき説明する。先に実行されたS106の処理によって、上述したようにオブジェクトAとオブジェクトBとが取得され、これらが表示部66で表示されていたとする。また、この状態から、ユーザの向きが、左側の方向に90°変化したとする。このとき、6軸センサ68で検知されている向きは、+90°となる。CPU50は、上述したS106と同様、角度+90°と、オブジェクトそれぞれに関連付けられた角度(位置情報)とに従い、表示部66の画角範囲Gに含まれるオブジェクトとして、オブジェクトC及びオブジェクトDを取得する。CPU50は、フラッシュROM56又はメモリスロット60に装着されたメモリカードにアクセスし、オブジェクトCを示すオブジェクトデータ及びオブジェクトDを示すオブジェクトデータを、RAM54上に記憶する。
CPU50は、RAM54上に記憶されたオブジェクトCを示すオブジェクトデータ及びオブジェクトDを示すオブジェクトデータに従い、取得されたオブジェクトC及びオブジェクトDが、表示部66で表示されるように制御する。この時点において、HMD本体10は、図5に示す角度+90°の方向を向いている。そのため、角度(位置情報)が+90°であるオブジェクトCは、現時点における正面の方向に配置された状態とされる。角度(位置情報)が+110°であるオブジェクトDは、正面に配置されるオブジェクトCを基準として、それより角度が20°だけ左側(+110°−90°=+20°)に配置された状態とされる。すなわち、CPU50は、オブジェクトC及びオブジェクトDが、前述の位置に配置された画像を作成し、この画像を表示部66で表示するための制御を行う。なお、表示するに際し、表示部66を構成する光学レンズ間の距離は、上述したように、物体距離調整ダイヤル70で設定された距離に対応した距離に保たれている。
S108の判断が否定された場合(S108:No)、又は、S110が実行された場合、CPU50は、表示部66のピント位置を取得する(S112)。表示部66のピント位置は、上述した通り、物体距離調整ダイヤル70によって設定される。従って、CPU50は、物体距離調整ダイヤル70によって設定された距離を取得する。例えば、物体距離調整ダイヤル70が0.3mに設定されていた場合、CPU50は、距離0.3mを取得する。
続けて、CPU50は、上述したS106及びS110に関連して取得されたオブジェクトのうち、S112で取得した距離に対応する距離(位置情報)に関連付けられたオブジェクトを抽出する(S114)。また、S114でCPU50は、抽出したオブジェクトを、未抽出のオブジェクトに対して強調するための処理を実行する。オブジェクトの強調としては、抽出されたオブジェクトが未抽出のオブジェクトより強調される態様であれば、各種の手法を採用することができる。例えば、抽出されたオブジェクトが枠等で囲まれる一方、未抽出のオブジェクトは枠等で囲まないといった手法を採用することができる。また、抽出されたオブジェクトを明確に表示する一方、未抽出のオブジェクトをぼかした状態で表示する、又は、未抽出のオブジェクトを表示しないといった手法を採用することもできる。この他、抽出されたオブジェクトの輝度を、未抽出のオブジェクトの輝度より高めた状態とするといった手法を採用することもできる。
図5に示す画角範囲Gのように、オブジェクトA及びオブジェクトBが取得され、物体距離調整ダイヤル70が0.3mに設定されていたとする。この場合、S114では、0.3mであるオブジェクトAが、オブジェクトBに対して、前述したように強調される。表示部66では、オブジェクトAが強調された状態でオブジェクトA及びオブジェクトBが表示され、又は、オブジェクトAのみが表示される。
次に、CPU50は、表示部66で表示されているオブジェクトへの干渉について判断する(S116)。オブジェクトへの干渉は、S104で開始されたユーザの手の位置を認識する処理に従って判断される。例えば、図5に示すように表示されているオブジェクトAに対して、ユーザの手が重なり、又は、ユーザの手がオブジェクトAを掴むような状態が認識され、且つ、オブジェクトAの位置を移動させ、又は、オブジェクトAを回転させるようなユーザの手の動きが認識されたとする。このような場合、CPU50は、ユーザによるオブジェクトAへの干渉を検出し、S116の判断を肯定する(S116:Yes)。一方、何れのオブジェクトに対しても、前述のような状態が認識されない場合、CPU50は、干渉は検出されないとして、S116の判断を否定する(S116:No)。
S116の判断が肯定された場合(S116:Yes)、CPU50は、物体距離調整ダイヤル70で設定された距離と、干渉が検出されたオブジェクトに関連付けられた距離(位置情報)とが一致するかについて判断する(S117)。両距離が一致しない場合(S117:No)、CPU50は、処理をS120に移行する。一方、両距離が一致する場合(S117:Yes)、CPU50は、干渉が検出されたオブジェクトに対して干渉処理を実行する(S118)。すなわち、干渉処理は、物体距離調整ダイヤル70で設定された距離に対応する距離(位置情報)に関連付けられたオブジェクトに対して行われる。換言すれば、物体距離調整ダイヤル70で設定された距離とは異なる距離(位置情報)に関連付けられたオブジェクトに対しては、干渉処理は実行されない。
例えば、物体距離調整ダイヤル70が0.3mに設定され、S112で距離0.3mが取得されている状態で、図5に示すように表示されているオブジェクトAに対する干渉がS116で検出されたとする。このような場合、S118でCPU50は、距離(位置情報)が0.3mであるオブジェクトAに対して干渉処理を実行する。例えば、S116で検出された干渉が、図5に示すように表示されているオブジェクトAを掴み、オブジェクトAを、矢印Mの方向に遠ざけるような動作であったとする。このような場合、CPU50は、RAM54上のオブジェクト配置データにおいて、オブジェクトAに関連付けられた距離(位置情報)を、矢印Mの方向に遠ざけた手の動きに対応させた値に更新する。なお、図3に示すこの処理では、表示されるオブジェクトの大きさに関し、距離(位置情報)に対応した大きさとなるようにしてもよい。
また、S116で検出された干渉が、図5に示すように表示されているオブジェクトAを掴み、オブジェクトAを右側に移動させるような動作であったとする。このような場合、CPU50は、オブジェクトAが表示されている位置を、右側に移動させた手の動きに対応させ、右側に移動させる。また、CPU50は、RAM54上のオブジェクト配置データにおいて、オブジェクトAに関連付けられた角度(位置情報)は、右側に移動させた手の動きに対応させた値に更新する。
この他、例えば、物体距離調整ダイヤル70が0.3mに設定され、S112で距離0.3mが取得されている状態で、表示されているオブジェクトBに対する干渉がS116で検出されたとする。オブジェクトBは、距離(位置情報)が1.0m(図4参照)である。従って、このような場合、S118でCPU50は、オブジェクトBに対して干渉処理を実行することなく、処理をS120に移行する。なお、物体距離調整ダイヤル70の設定に関わりなく、表示部66で表示されている全てのオブジェクトを、干渉処理の対象としてもよい。また、オブジェクトへの干渉は、上述したようなものの他、オブジェクトを上下及び/左右に反転させるようなものであってもよい。この場合、オブジェクトを示すオブジェクトデータが、反転後のオブジェクトを示すように変更される。
S116の判断が否定された場合(S116:No)、又は、S118が実行された場合、CPU50は、この処理を終了するための終了指令が、入力されているかについて判断する(S120)。終了指令は、ユーザが操作部63を操作する等して、入力される。終了指令が入力されておらず、処理を終了しない場合(S120:No)、CPU50は、処理をS106に戻す。その後、CPU50は、上述した処理を繰り返して実行する。
S102が実行された場合、又は、終了指令が入力され、処理を終了する場合(S120:Yes)、CPU50は、RAM54上に記憶されているオブジェクト配置データを、フラッシュROM56又はメモリスロット60に装着されたメモリカードに記憶する。これによって、S102で作成されたオブジェクト配置データが、新たに、フラッシュROM56又はメモリスロット60に装着されたメモリカードに記憶される。また、終了指令が入力され、処理を終了する場合(S120:Yes)、図3に示すこの処理の開始時にフラッシュROM56又はメモリカードに記憶されていたオブジェクト配置データは、S118で新たに設定された角度(位置情報)及び距離(位置情報)を含む、新たなオブジェクト配置データに更新される。
以上説明した本実施形態では、表示対象となるオブジェクトは、地理的な位置に関連付けられていない。従って、HMD1の地理的位置が変化したとしても、変化前と同じ状態でオブジェクトを配置し、このように配置されたオブジェクトを、ユーザに表示することができる(S106参照)。
また、物体距離調整ダイヤル70で設定された距離に対応する距離(位置情報)に関連付けられたオブジェクトを、これ以外のオブジェクトより強調された状態で表示することができる(S114参照)。ユーザは、特定の距離(位置情報)に関連付けられたオブジェクトを、容易に認識することができる。
さらに、表示部66で表示されているオブジェクトへの干渉を検出し、干渉されたオブジェクトを、干渉のためのユーザの手の動きに合わせた状態で表示することができる(S118参照)。その際、干渉の対象となるオブジェクトを、物体距離調整ダイヤル70で設定された距離に対応する距離(位置情報)に関連付けられたオブジェクトに限定することもできる。この他、干渉後の状態で、オブジェクト配置データを更新することができる(S122参照)。ユーザは、HMD1の利用を停止させる際、次回の利用のために、別途、オブジェクト配置データを更新する操作を行わなくてもよい。
<変形例>
上述した本実施形態は、次のようにすることもできる。上記では、HMD本体10とシステムボックス20とが信号ケーブル40で接続されたHMD1を例に説明した。この他、HMD本体10とシステムボックス20とが一体とされたHMD1としてもよい。この場合、上記のシステムボックス20が有する各部は、例えば、表示ボックス14の内部に設けられる。角度(位置情報)及び距離(位置情報)の基準は、ユーザの頭部に装着される一体型のHMD1とされる。
上述した本実施形態は、次のようにすることもできる。上記では、HMD本体10とシステムボックス20とが信号ケーブル40で接続されたHMD1を例に説明した。この他、HMD本体10とシステムボックス20とが一体とされたHMD1としてもよい。この場合、上記のシステムボックス20が有する各部は、例えば、表示ボックス14の内部に設けられる。角度(位置情報)及び距離(位置情報)の基準は、ユーザの頭部に装着される一体型のHMD1とされる。
また、上記のHMD1においては、次のような機能が実行されるようにしてもよい。すなわち、オブジェクトに関連付けられた角度(位置情報)が、まとめて、一定角度だけオフセットされるようにしてもよい。このとき、ユーザは、操作部63又は外部I/F62に接続された外部装置を操作し、オフセットさせる角度を入力する。CPU50は、入力された角度を、既に登録されている角度(位置情報)に加減算する。
例えば、オブジェクト配置データが図4に示す状態である場合において、オフセットする角度として、+90°が入力されたとする。このとき、CPU50は、オブジェクトAに関連付けられた角度(位置情報)の+10°に、入力された90°を加算し、角度(位置情報)を+100°に更新する。同様に、オブジェクトBについて、角度(位置情報)の−10°に、90°を加算し、角度(位置情報)を+80°に更新する。オブジェクトCについて、角度(位置情報)の+90°に、90°を加算し、角度(位置情報)を180°に更新する。オブジェクトDについて、角度(位置情報)の+110°に、90°を加算し、角度(位置情報)を+200°(−160°)に更新する。最後に、オブジェクトEについて、角度(位置情報)の−170°に、90°を加算し、角度(位置情報)を−80°に更新する。
このような構成によれば、複数のオブジェクトについて、角度(位置情報)を所定の角度だけオフセット(回転)させる場合、ユーザは、個々のオブジェクトに干渉し、オフセットさせたい角度だけ移動させるといった操作をする必要がない。オフセットさせたい角度を入力すれば、全てのオブジェクトを対象として、角度(位置情報)を、一括してオフセットさせることができる。このような処理が行われた場合、フラッシュROM56又はメモリスロット60に装着されたメモリカードに記憶されているオブジェクト配置データは、オフセット後の角度(位置情報)を含む状態に更新される。なお、角度(位置情報)がオフセットされたとしても、距離(位置情報)は、更新されない。
1 ヘッドマウントディスプレイ(HMD)
10 ヘッドマウントディスプレイ本体(HMD本体)
12 フレーム構造
14 表示ボックス
16 ハーフミラー
20 システムボックス
30 カメラ
40 信号ケーブル
50 CPU
52 プログラムROM
54 RAM
56 フラッシュROM
58,64 通信インターフェース(通信I/F)
60 メモリスロット
62 外部インターフェース(外部I/F)
63 操作部
66 表示部
68 6軸センサ
70 物体距離調整ダイヤル
72 カメラインターフェース(カメラI/F)
10 ヘッドマウントディスプレイ本体(HMD本体)
12 フレーム構造
14 表示ボックス
16 ハーフミラー
20 システムボックス
30 カメラ
40 信号ケーブル
50 CPU
52 プログラムROM
54 RAM
56 フラッシュROM
58,64 通信インターフェース(通信I/F)
60 メモリスロット
62 外部インターフェース(外部I/F)
63 操作部
66 表示部
68 6軸センサ
70 物体距離調整ダイヤル
72 カメラインターフェース(カメラI/F)
Claims (6)
- ユーザの頭部に装着され、前記ユーザに対してオブジェクトを表示し、オブジェクトを視認している前記ユーザが、前記ユーザが存する外界をオブジェクトと重ねて視認することができるシースルー型のヘッドマウントディスプレイであって、
オブジェクトを表示する表示部と、
前記ヘッドマウントディスプレイの向きを検知する検知部と、
前記ユーザが視認する視認対象の距離を設定する設定部と、
前記検知部で検知された前記ヘッドマウントディスプレイの向きに従い、前記ヘッドマウントディスプレイを基準とした位置を示す位置情報に関連付けられたオブジェクトを取得する取得手段と、
オブジェクトに関連付けられた位置情報に対応した位置に配置された状態で、前記取得手段で取得されたオブジェクトを、前記表示部に表示するための表示制御手段と、
前記取得手段で取得されたオブジェクトのうち、前記設定部で設定された距離に対応するオブジェクトを抽出する抽出手段と、
前記抽出手段で抽出されたオブジェクトを、前記抽出手段で抽出されていないオブジェクトに対して強調するための強調処理手段と、を有し、
前記表示制御手段は、位置情報に対応した位置に配置された状態でオブジェクトを、前記表示部に表示する場合、前記抽出手段で抽出されたオブジェクトを、前記強調処理手段で強調された状態とする、ヘッドマウントディスプレイ。 - 前記表示制御手段によって前記表示部に表示されているオブジェクトのうち、特定のオブジェクトを、前記ヘッドマウントディスプレイに入力される指令に従った干渉状態とするための干渉処理手段を有する、請求項1に記載のヘッドマウントディスプレイ。
- 前記干渉処理手段は、前記設定部で設定された距離に対応する位置情報に関連付けられたオブジェクトを、特定のオブジェクトとして、前記ヘッドマウントディスプレイに入力される指令に従った干渉状態とする、請求項2に記載のヘッドマウントディスプレイ。
- 前記表示部で表示されるオブジェクトのピントを調整するための調整部を有し、
前記表示制御部は、前記設定部で設定された距離に前記ピントが合うように、前記調整部を調整する、請求項1から請求項3の何れか1項に記載のヘッドマウントディスプレイ。 - 複数のオブジェクトを対象として、オブジェクトに関連付けられた位置情報によって示される位置を特定するための角度を、一定角度だけオフセットさせるオフセット手段を有する、請求項1から請求項4の何れか1項に記載のヘッドマウントディスプレイ。
- ユーザの頭部に装着され、前記ユーザに対してオブジェクトを表示し、オブジェクトを視認している前記ユーザが、前記ユーザが存する外界をオブジェクトと重ねて視認することができ、オブジェクトを表示する表示部と、前記ヘッドマウントディスプレイの向きを検知する検知部と、前記ユーザが視認する視認対象の距離を設定する設定部と、を有するシースルー型のヘッドマウントディスプレイを制御するコンピュータが読み取り可能なコンピュータプログラムであって、
前記コンピュータを、
前記検知部で検知された前記ヘッドマウントディスプレイの向きに従い、前記ヘッドマウントディスプレイを基準とした位置を示す位置情報に関連付けられたオブジェクトを取得する取得手段と、
オブジェクトに関連付けられた位置情報に対応した位置に配置された状態で、前記取得手段で取得されたオブジェクトを、前記表示部に表示するための表示制御手段と、
前記取得手段で取得されたオブジェクトのうち、前記設定部で設定された距離に対応するオブジェクトを抽出する抽出手段と、
前記抽出手段で抽出されたオブジェクトを、前記抽出手段で抽出されていないオブジェクトに対して強調するための強調処理手段と、して機能させ、
前記表示制御手段は、位置情報に対応した位置に配置された状態でオブジェクトを、前記表示部に表示する場合、前記抽出手段で抽出されたオブジェクトを、前記強調処理手段で強調された状態とする、機能を含む、コンピュータプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011059951A JP2012194492A (ja) | 2011-03-17 | 2011-03-17 | ヘッドマウントディスプレイ及びヘッドマウントディスプレイのためのコンピュータプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011059951A JP2012194492A (ja) | 2011-03-17 | 2011-03-17 | ヘッドマウントディスプレイ及びヘッドマウントディスプレイのためのコンピュータプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012194492A true JP2012194492A (ja) | 2012-10-11 |
Family
ID=47086422
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011059951A Withdrawn JP2012194492A (ja) | 2011-03-17 | 2011-03-17 | ヘッドマウントディスプレイ及びヘッドマウントディスプレイのためのコンピュータプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012194492A (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015046092A (ja) * | 2013-08-29 | 2015-03-12 | セイコーエプソン株式会社 | 画像処理装置とこれを有する頭部装着型表示装置 |
JP2015049346A (ja) * | 2013-08-30 | 2015-03-16 | Kddi株式会社 | 制御装置、電子制御システム、制御方法、およびプログラム |
JP2016126217A (ja) * | 2015-01-06 | 2016-07-11 | ブラザー工業株式会社 | 画像表示装置、及び、ヘッドマウントディスプレイ |
WO2018198910A1 (ja) * | 2017-04-28 | 2018-11-01 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置、情報処理装置の制御方法、及びプログラム |
-
2011
- 2011-03-17 JP JP2011059951A patent/JP2012194492A/ja not_active Withdrawn
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015046092A (ja) * | 2013-08-29 | 2015-03-12 | セイコーエプソン株式会社 | 画像処理装置とこれを有する頭部装着型表示装置 |
JP2015049346A (ja) * | 2013-08-30 | 2015-03-16 | Kddi株式会社 | 制御装置、電子制御システム、制御方法、およびプログラム |
JP2016126217A (ja) * | 2015-01-06 | 2016-07-11 | ブラザー工業株式会社 | 画像表示装置、及び、ヘッドマウントディスプレイ |
WO2018198910A1 (ja) * | 2017-04-28 | 2018-11-01 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置、情報処理装置の制御方法、及びプログラム |
JPWO2018198910A1 (ja) * | 2017-04-28 | 2019-11-07 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置、情報処理装置の制御方法、及びプログラム |
US11077360B2 (en) | 2017-04-28 | 2021-08-03 | Sony Interactive Entertainment Inc. | Information processing device, control method of information processing device, and program |
US11260287B2 (en) | 2017-04-28 | 2022-03-01 | Sony Interactive Entertainment Inc. | Information processing device, control method of information processing device, and program |
US11617942B2 (en) | 2017-04-28 | 2023-04-04 | Sony Interactive Entertainment Inc. | Information processing device, control method of information processing device, and program |
US11896893B2 (en) | 2017-04-28 | 2024-02-13 | Sony Interactive Entertainment Inc. | Information processing device, control method of information processing device, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9442567B2 (en) | Gaze swipe selection | |
US9728010B2 (en) | Virtual representations of real-world objects | |
US9857589B2 (en) | Gesture registration device, gesture registration program, and gesture registration method | |
US10489981B2 (en) | Information processing device, information processing method, and program for controlling display of a virtual object | |
JP5295714B2 (ja) | 表示装置、画像処理方法、及びコンピュータプログラム | |
US20150206321A1 (en) | Automated content scrolling | |
US20210201580A1 (en) | Artificial reality system with varifocal display of artificial reality content | |
US20160225164A1 (en) | Automatic generation of virtual materials from real-world materials | |
WO2013145536A1 (en) | Information processing apparatus, information processing system, and information processing method | |
US20200202161A1 (en) | Information processing apparatus, information processing method, and program | |
US11487354B2 (en) | Information processing apparatus, information processing method, and program | |
JP2013258614A (ja) | 画像生成装置および画像生成方法 | |
JP6399692B2 (ja) | ヘッドマウントディスプレイ、画像表示方法及びプログラム | |
CN108885487B (zh) | 一种可穿戴式***的手势控制方法以及可穿戴式*** | |
KR102110208B1 (ko) | 안경형 단말기 및 이의 제어방법 | |
US20150009103A1 (en) | Wearable Display, Computer-Readable Medium Storing Program and Method for Receiving Gesture Input | |
JP2009010987A (ja) | 電子カメラ | |
US20200341284A1 (en) | Information processing apparatus, information processing method, and recording medium | |
JP2016224086A (ja) | 表示装置、表示装置の制御方法、及び、プログラム | |
JP2008017501A (ja) | 電子カメラ | |
JP2012194492A (ja) | ヘッドマウントディスプレイ及びヘッドマウントディスプレイのためのコンピュータプログラム | |
JP6483514B2 (ja) | ウェアラブル装置、制御方法及び制御プログラム | |
JP2017191546A (ja) | 医療用ヘッドマウントディスプレイ、医療用ヘッドマウントディスプレイのプログラムおよび医療用ヘッドマウントディスプレイの制御方法 | |
CN111722401A (zh) | 显示装置、显示控制方法以及显示*** | |
CN110998673A (zh) | 信息处理装置、信息处理方法和计算机程序 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20140603 |