JP6459421B2 - 頭部装着型表示装置、頭部装着型表示装置を制御する方法、コンピュータープログラム - Google Patents
頭部装着型表示装置、頭部装着型表示装置を制御する方法、コンピュータープログラム Download PDFInfo
- Publication number
- JP6459421B2 JP6459421B2 JP2014232750A JP2014232750A JP6459421B2 JP 6459421 B2 JP6459421 B2 JP 6459421B2 JP 2014232750 A JP2014232750 A JP 2014232750A JP 2014232750 A JP2014232750 A JP 2014232750A JP 6459421 B2 JP6459421 B2 JP 6459421B2
- Authority
- JP
- Japan
- Prior art keywords
- coordinates
- user
- image
- head
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/113—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/163—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0185—Displaying image at variable distance
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Optics & Photonics (AREA)
- Computer Hardware Design (AREA)
- Computer Graphics (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Veterinary Medicine (AREA)
- Biophysics (AREA)
- Public Health (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Psychology (AREA)
- Child & Adolescent Psychology (AREA)
- Developmental Disabilities (AREA)
- Educational Technology (AREA)
- Hospice & Palliative Care (AREA)
- Psychiatry (AREA)
- Ophthalmology & Optometry (AREA)
- Social Psychology (AREA)
- Pathology (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
- Controls And Circuits For Display Device (AREA)
- Image Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Architecture (AREA)
Description
[形態1]利用者が虚像と外景とを視認可能な頭部装着型表示装置であって、前記利用者に前記虚像を視認させる画像表示部と、前記利用者に対して、三次元空間上の任意の標準座標上に目印を視認させるための前記虚像を前記画像表示部に形成させ、前記利用者が前記目印を注視した際の注視点を表す前記三次元空間上の注視点座標を求め、前記標準座標と、前記注視点座標との間のずれを検出するずれ検出部と、現実世界に実在する実オブジェクトに対して表示させるための仮想オブジェクトであって、検出された前記ずれを用いて配置された前記仮想オブジェクトを含んだ前記虚像を前記画像表示部に形成させる拡張現実感処理部と、
を備え、前記ずれ検出部は、前記標準座標と前記注視点座標との間のずれとして、前記画像表示部に送信する画像データー内における前記目印の座標と、前記標準座標と、を結ぶ標準ベクトルと、前記画像表示部に送信する画像データー内における前記目印の座標と、前記注視点座標と、を結ぶ注視点ベクトルと、のずれを求める、頭部装着型表示装置。
この形態の頭部装着型表示装置によれば、ずれ検出部は、三次元空間上に形成された目印の標準座標と、利用者が目印を注視した際の注視点を表す注視点座標との間のずれを検出することができる。この「ずれ」は、標準的な利用者が目印を注視した際の注視点と、頭部装着型表示装置の実際の利用者が目印を注視した際の注視点と、の間のずれであり、実際の利用者の眼の個人差によって生じるずれである。また、拡張現実感処理部は、ずれ検出部によって検出された標準座標と注視点座標との間のずれ(すなわち、実際の利用者の眼の個人差によって生じるずれ)を用いて、実オブジェクトに対して表示させるための仮想オブジェクトを配置する。この結果、眼の個人差を考慮した拡張現実感処理を実現可能な頭部装着型表示装置を提供することができる。
この形態の頭部装着型表示装置によれば、ずれ検出部は、標準座標と注視点座標との間のずれを、標準的な利用者の眼の中心窩と水晶体の中心とを結ぶベクトルと同視できる「標準ベクトル」と、実際の利用者の眼の中心窩と水晶体の中心とを結ぶベクトルと同視できる「注視点ベクトル」と、のずれとして定義することができる。
この形態の頭部装着型表示装置によれば、ずれ検出部は、三次元空間上の直交座標系におけるx軸と、y軸と、z軸と、のそれぞれについての、標準ベクトルと注視点ベクトルとの角度差を、ずれとして求めることができる。
この形態の頭部装着型表示装置によれば、ずれ検出部は、頭部装着型表示装置において広く搭載されている外景画像取得部(例えば、ステレオカメラ)によって取得された少なくとも2枚の外景画像を用いて、注視点座標を求めることができる。
この形態の頭部装着型表示装置によれば、ずれ検出部は、外景画像取得部が1枚の外景画像のみ取得可能な場合において、距離取得部によって取得された指示までの距離を併用することで、注視点座標を求めることができる。
この形態の頭部装着型表示装置によれば、拡張現実感処理部は、異なる複数の標準座標についてそれぞれ検出された複数のずれを用いを用いて仮想オブジェクトを配置するため、拡張現実感処理において考慮される眼の個人差の精度を向上させることができる。
この形態の頭部装着型表示装置によれば、ずれ検出部は、頭部装着型表示装置内の任意のアプリケーションによって形成される任意の表示を目印として利用して、任意のアプリケーションのバックグラウンドにおいて、標準座標と注視点座標との間のずれを検出するための一連の処理を実行することができる。この結果、利用者の手間を削減することができる。
この形態の頭部装着型表示装置によれば、ずれ検出部は、三角測量の原理を用いて簡単に、標準座標上に目印を視認させるための虚像を画像表示部に形成させることができる。
A−1.頭部装着型表示装置の構成:
図1は、本発明の一実施形態における頭部装着型表示装置の概略構成を示す説明図である。本実施形態の頭部装着型表示装置100は、頭部に装着する表示装置であり、ヘッドマウントディスプレイ(Head Mounted Display、HMD)とも呼ばれる。HMD100は、利用者が、虚像を視認すると同時に外景も直接視認可能な光学透過型のヘッドマウントディスプレイである。
・仮想オブジェクトを用いて実オブジェクトに情報を付加すること。
・仮想オブジェクトを用いて実オブジェクトを強調すること。
・実オブジェクトが持つ情報(色、形等)を、仮想オブジェクトを用いて削除および減衰させること。
・上述した、付加、強調、削除、減衰の任意の2つ以上の組み合わせ。
なお、実オブジェクトと、実オブジェクトに付加的に表示される仮想オブジェクトとは、関連があってもよいし、なくてもよい。
図2は、HMD100の構成を機能的に示すブロック図である。画像表示部20は、利用者の頭部に装着される装着体であり、本実施形態では眼鏡形状である(図1)。画像表示部20は、右保持部21と、右表示駆動部22と、左保持部23と、左表示駆動部24と、右光学像表示部26と、左光学像表示部28と、カメラ61と、9軸センサー66と、を備えている。以降、利用者が画像表示部20を装着した状態における、画像表示部20の各部の位置関係と機能について説明する。
制御部10はHMD100を制御するための装置である。図1に示すように、制御部10は、決定キー11と、点灯部12と、表示切替キー13と、トラックパッド14と、輝度切替キー15と、方向キー16と、メニューキー17と、電源スイッチ18と、を備えている。決定キー11は、押下操作を検出して、制御部10において操作された内容を決定するための信号を出力する。点灯部12は、例えばLEDによって実現され、HMD100の動作状態(例えば電源のON/OFF等)を発光状態によって通知する。表示切替キー13は、押下操作を検出して、例えばコンテンツ動画の表示モードを3Dと2Dとに切り替える信号を出力する。
(a2)拡張現実感処理部142は、手順a1で取得した外景画像に含まれる実オブジェクトの中から、仮想オブジェクトを付加する対象となる実オブジェクト(以降、「対象オブジェクト」とも呼ぶ。)を特定する。
(a3)拡張現実感処理部142は、対象オブジェクトの位置を取得する。ここで、「位置」とは、利用者からの距離、および、利用者の視界内における水平方向および鉛直方向の位置を含む。この際、拡張現実感処理部142は、ステレオカメラであるカメラ61によって取得された2枚以上の外景画像を用いて、対象オブジェクトの位置を算出してもよい。また、拡張現実感処理部142は、カメラ61により取得された1枚以上の外景画像と、図示しない各種のセンサー(例えば、深度センサー、測距センサー等)とを併用して、対象オブジェクトの位置を算出してもよい。
ずれ補正処理は、拡張現実感処理中において、眼の個人差を考慮して、付加画像データー内における仮想オブジェクトの位置を補正する処理である。ずれ補正処理は、拡張現実感処理のサブルーチンとして、拡張現実感処理の手順a6において実行される。
・X1=PRx1またはPLx1
・Y1=PRy1またはPLy1
・Z1=右眼用画像データーData1と左眼用画像データーData2との中の目印OBの視差によって狙われた任意の点。この点は、利用者の腕の長さよりも短い点とする。
・X1−(眼間距離/2)×{表示部距離/(Z1+表示部距離)}=PRx1
・X1+(眼間距離/2)×{表示部距離/(Z1+表示部距離)}=PLx1
・X2=以下の式1、2を解くことで求める。なお、眼間距離および表示部距離は、距離情報122に予め記憶されている値を用いる。
X2−(眼間距離/2)×{表示部距離/(Z1+表示部距離)}=FPRx3 ・・・(式1)
X2+(眼間距離/2)×{表示部距離/(Z1+表示部距離)}=FPLx3 ・・・(式2)
・Y2=FPRy3またはFPLy3
・Z2=視差(すなわちFPRx3とFPLx3との差)と、距離情報122内の眼間距離と、から三角関数を用いて求めた点
tanθRx=dx/Li ・・・(式3)
tan(θRx+ΔθRx)=(dx+ΔXi)/Li ・・・(式4)
なお、ずれ補正処理(図4)には、以下のような変形1〜3を施してもよい。変形1〜3は単独で採用してもよいし、組み合わせて採用してもよい。なお、変形1〜3の説明では、上記実施形態と異なる部分についてのみ説明する。以下で説明しないステップについては、上記実施形態と同様である。
変形1では、異なる複数の標準座標について、標準座標と注視点座標との間のずれを検出することで、ずれ補正処理の精度を向上させる。
変形2では、変形1と同様に、異なる複数の標準座標について、標準座標と注視点座標との間のずれを検出することで、ずれ補正処理の精度を向上させる。さらに、変形2では、HMD100内の任意のアプリケーションによって形成される任意の表示を目印OBとして利用する。なお、変形2の説明では、変形1と異なる部分についてのみ説明する。以下で説明しないステップについては、変形1と同様である。
変形3では、ステレオカメラを用いずに、上記実施形態と同様の処理を実現する。
・X2=x4
・Y2=y4
・Z2=深度センサーによって取得された深度(距離)
上記実施形態において、ハードウェアによって実現されるとした構成の一部をソフトウェアに置き換えるようにしてもよく、逆に、ソフトウェアによって実現されるとした構成の一部をハードウェアに置き換えるようにしてもよい。その他、以下のような変形も可能である。
上記実施形態では、HMDの構成について例示した。しかし、HMDの構成は、本発明の要旨を逸脱しない範囲において任意に定めることが可能であり、例えば、各構成部の追加・削除・変換等を行うことができる。
(i)制御部にCPUやメモリー等の処理機能を搭載し、画像表示部には表示機能のみを搭載する態様
(ii)制御部と画像表示部との両方にCPUやメモリー等の処理機能を搭載する態様
(iii)制御部と画像表示部とを一体化した態様(例えば、画像表示部に制御部が含まれ眼鏡型のウェアラブルコンピューターとして機能する態様)
(iv)制御部の代わりにスマートフォンや携帯型ゲーム機を使用する態様
(v)制御部と画像表示部とを無線LANや赤外線通信やBluetooth等の無線の信号伝送路を介した接続により接続し、接続部(コード)を廃した態様。なお、この場合において、制御部または画像表示部に対する給電をワイヤレスにより実施してもよい。
上記実施形態では、拡張現実感処理と、ずれ補正処理との一例を示した。しかし、上記実施形態において示した処理の手順はあくまで一例であり、種々の変形が可能である。例えば、一部のステップを省略してもよいし、更なる他のステップを追加してもよい。実行されるステップの順序を変更してもよい。
本発明は、上述の実施形態や実施例、変形例に限られるものではなく、その趣旨を逸脱しない範囲において種々の構成で実現することができる。例えば、発明の概要の欄に記載した各形態中の技術的特徴に対応する実施形態、実施例、変形例中の技術的特徴は、上述の課題の一部または全部を解決するために、あるいは、上述の効果の一部または全部を達成するために、適宜、差し替えや組み合わせを行うことが可能である。また、その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除することが可能である。
11…決定キー
12…点灯部
13…表示切替キー
14…トラックパッド
15…輝度切替キー
16…方向キー
17…メニューキー
18…電源スイッチ
20…画像表示部
21…右保持部
22…右表示駆動部
23…左保持部
24…左表示駆動部
26…右光学像表示部
28…左光学像表示部
30…イヤホンプラグ
32…右イヤホン
34…左イヤホン
40…接続部
42…右コード
44…左コード
46…連結部材
48…本体コード
51…送信部
52…送信部
53…受信部
54…受信部
61…カメラ(外景画像取得部)
66…9軸センサー
110…入力情報取得部
100…HMD(頭部装着型表示装置)
120…記憶部
122…距離情報
130…電源
132…無線通信部
140…CPU
142…拡張現実感処理部
144…ずれ検出部
160…画像処理部
170…音声処理部
180…インターフェイス
190…表示制御部
201…右バックライト制御部
202…左バックライト制御部
211…右LCD制御部
212…左LCD制御部
221…右バックライト
222…左バックライト
241…右LCD
242…左LCD
251…右投写光学系
252…左投写光学系
261…右導光板
262…左導光板
60…水晶体
70…中心窩
80…手
PCLK…クロック信号
VSync…垂直同期信号
HSync…水平同期信号
Data…画像データー
Data1…右眼用画像データー
Data2…左眼用画像データー
OA…外部機器
PC…パーソナルコンピューター
SC…外景
VI…虚像
VR…視野
RE…右眼
LE…左眼
ER…端部
EL…端部
IM…認証画面
VO…仮想オブジェクト
B1L…標準ベクトル
B2L…注視点ベクトル
B1R…標準ベクトル
B2R…注視点ベクトル
Claims (10)
- 利用者が虚像と外景とを視認可能な頭部装着型表示装置であって、
前記利用者に前記虚像を視認させる画像表示部と、
前記利用者に対して、三次元空間上の任意の標準座標上に目印を視認させるための前記虚像を前記画像表示部に形成させ、前記利用者が前記目印を注視した際の注視点を表す前記三次元空間上の注視点座標を求め、前記標準座標と、前記注視点座標との間のずれを検出するずれ検出部と、
現実世界に実在する実オブジェクトに対して表示させるための仮想オブジェクトであって、検出された前記ずれを用いて配置された前記仮想オブジェクトを含んだ前記虚像を前記画像表示部に形成させる拡張現実感処理部と、
を備え、
前記ずれ検出部は、前記標準座標と前記注視点座標との間のずれとして、
前記画像表示部に送信する画像データー内における前記目印の座標と、前記標準座標と、を結ぶ標準ベクトルと、前記画像表示部に送信する画像データー内における前記目印の座標と、前記注視点座標と、を結ぶ注視点ベクトルと、のずれを求める、頭部装着型表示装置。 - 請求項1に記載の頭部装着型表示装置であって、
前記ずれは、ロール角の角度差と、ピッチ角の角度差と、ヨー角の角度差と、を含む、頭部装着型表示装置。 - 請求項1または請求項2に記載の頭部装着型表示装置であって、さらに、
前記利用者の左右の眼に対応した少なくとも2枚の外景画像を取得する外景画像取得部を備え、
前記ずれ検出部は、
前記利用者に対して、前記目印を指示するように案内し、
前記外景画像取得部によって取得された前記少なくとも2枚の外景画像内の前記指示に基づいて、前記注視点座標を求める、頭部装着型表示装置。 - 請求項1または請求項2に記載の頭部装着型表示装置であって、さらに、
前記利用者の視界方向の外景画像を取得する外景画像取得部と、
任意の目標物までの距離を取得する距離取得部と、
を備え、
前記ずれ検出部は、
前記利用者に対して、前記目印を指示するように案内し、
前記外景画像取得部によって取得された前記外景画像内の前記指示と、前記距離取得部によって取得された前記指示までの距離と、に基づいて、前記注視点座標を求める、頭部装着型表示装置。 - 請求項1から請求項4のいずれか一項に記載の頭部装着型表示装置であって、
前記ずれ検出部は、
前記利用者に対して前記標準座標上に前記目印を視認させ、前記注視点座標を求め、前記標準座標と前記注視点座標との間のずれを検出する一連の処理を、異なる複数の標準座標を持つ異なる複数の目印に対して繰り返し実行し、
前記拡張現実感処理部は、
前記仮想オブジェクトの配置において、異なる複数の標準座標についてそれぞれ検出された複数のずれを用いる、頭部装着型表示装置。 - 請求項5に記載の頭部装着型表示装置であって、
前記ずれ検出部は、
前記頭部装着型表示装置内の任意のアプリケーションによって形成される任意の表示を前記目印として利用して、前記一連の処理を実行する、頭部装着型表示装置。 - 請求項1から請求項4のいずれか一項に記載の頭部装着型表示装置であって、
前記ずれ検出部は、
前記利用者が右眼で視認する前記虚像と、前記利用者が左眼で視認する前記虚像と、の間に視差を付けることで、前記標準座標上に前記目印を視認させる、頭部装着型表示装置。 - 請求項3または請求項4に記載の頭部装着型表示装置であって、
さらに、スピーカを備え、
前記ずれ検出部は、前記利用者に対して、前記目印の注視と前記目印の指示との実行を案内するために、前記注視と前記指示とを促すメッセージを前記虚像として前記画像表示部に表示させることと、前記メッセージを前記スピーカから音声出力させることと、のうちの少なくとも一方を実行する、頭部装着型表示装置。 - 画像表示部を有する頭部装着型表示装置を制御する方法であって、
利用者に対して、三次元空間上の任意の標準座標上に目印を視認させるための虚像を前記画像表示部に形成させる工程と、
前記利用者が前記目印を注視した際の注視点を表す前記三次元空間上の注視点座標を求める工程と、
前記標準座標と、前記注視点座標との間のずれを検出する工程と、
現実世界に実在する実オブジェクトに対して表示させるための仮想オブジェクトであって、検出された前記ずれを用いて配置された前記仮想オブジェクトを含んだ虚像を形成させる工程と、
を備え、
前記ずれを検出する工程は、前記標準座標と前記注視点座標との間のずれとして、
前記画像表示部に送信する画像データー内における前記目印の座標と、前記標準座標と、を結ぶ標準ベクトルと、前記画像表示部に送信する画像データー内における前記目印の座標と、前記注視点座標と、を結ぶ注視点ベクトルと、のずれを求める工程を含む、方法。 - コンピュータープログラムであって、
利用者に対して、三次元空間上の任意の標準座標上に目印を視認させるための虚像を画像表示部に形成させる機能と、
前記利用者が前記目印を注視した際の注視点を表す前記三次元空間上の注視点座標を求める機能と、
前記標準座標と、前記注視点座標との間のずれを検出する機能と、
現実世界に実在する実オブジェクトに対して表示させるための仮想オブジェクトであって、検出された前記ずれを用いて配置された前記仮想オブジェクトを含んだ虚像を形成させる機能と、
をコンピューターに実現させ、
前記ずれを検出する機能は、前記標準座標と前記注視点座標との間のずれとして、
前記画像表示部に送信する画像データー内における前記目印の座標と、前記標準座標と、を結ぶ標準ベクトルと、前記画像表示部に送信する画像データー内における前記目印の座標と、前記注視点座標と、を結ぶ注視点ベクトルと、のずれを求める機能を含む、コンピュータープログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014232750A JP6459421B2 (ja) | 2014-11-17 | 2014-11-17 | 頭部装着型表示装置、頭部装着型表示装置を制御する方法、コンピュータープログラム |
US14/921,613 US10627620B2 (en) | 2014-11-17 | 2015-10-23 | Head-mounted display device, method of controlling head-mounted display device, and computer program |
CN201510783106.8A CN105607255B (zh) | 2014-11-17 | 2015-11-16 | 头部佩戴型显示装置、控制其的方法及计算机可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014232750A JP6459421B2 (ja) | 2014-11-17 | 2014-11-17 | 頭部装着型表示装置、頭部装着型表示装置を制御する方法、コンピュータープログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2016095779A JP2016095779A (ja) | 2016-05-26 |
JP2016095779A5 JP2016095779A5 (ja) | 2017-09-14 |
JP6459421B2 true JP6459421B2 (ja) | 2019-01-30 |
Family
ID=55962164
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014232750A Active JP6459421B2 (ja) | 2014-11-17 | 2014-11-17 | 頭部装着型表示装置、頭部装着型表示装置を制御する方法、コンピュータープログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US10627620B2 (ja) |
JP (1) | JP6459421B2 (ja) |
CN (1) | CN105607255B (ja) |
Families Citing this family (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10156723B2 (en) * | 2016-05-12 | 2018-12-18 | Google Llc | Display pre-distortion methods and apparatus for head-mounted displays |
CN107436679B (zh) * | 2016-05-27 | 2020-08-07 | 富泰华工业(深圳)有限公司 | 手势控制***及方法 |
CN106127171A (zh) * | 2016-06-28 | 2016-11-16 | 广东欧珀移动通信有限公司 | 一种增强现实内容的显示方法、装置及终端 |
JP6373920B2 (ja) * | 2016-09-14 | 2018-08-15 | 株式会社バンダイナムコエンターテインメント | シミュレーションシステム及びプログラム |
JP6292682B1 (ja) * | 2016-10-06 | 2018-03-14 | 学校法人東京女子医科大学 | 画像処理システム、画像処理方法及び画像処理プログラム |
KR102564479B1 (ko) * | 2016-11-22 | 2023-08-07 | 삼성전자주식회사 | 사용자의 눈을 위한 3d 렌더링 방법 및 장치 |
KR102678242B1 (ko) * | 2017-02-01 | 2024-06-26 | 삼성전자주식회사 | 인증을 수행하는 전자 장치 및 방법 |
CN108664037B (zh) * | 2017-03-28 | 2023-04-07 | 精工爱普生株式会社 | 头部佩戴型显示装置以及无人机的操纵方法 |
IT201700035014A1 (it) * | 2017-03-30 | 2018-09-30 | The Edge Company S R L | Metodo e dispositivo per la visione di immagini in realta' aumentata |
CN106990843B (zh) * | 2017-04-01 | 2021-01-08 | 维沃移动通信有限公司 | 一种眼睛跟踪***的参数校准方法及电子设备 |
CN107609391B (zh) | 2017-09-27 | 2023-01-17 | 歌尔科技有限公司 | 一种解锁方法及虚拟现实设备 |
EP3785066A4 (en) * | 2018-04-27 | 2021-07-28 | Limbak 4PI S.L. | LUMINOUS FIELD DISPLAYS ADAPTED TO HUMAN VISION |
CN109316741A (zh) * | 2018-07-17 | 2019-02-12 | 派视觉虚拟现实(深圳)软件技术有限公司 | 一种vr场景中控制角色移动的方法、装置及设备 |
CN110826375B (zh) * | 2018-08-10 | 2022-08-12 | 广东虚拟现实科技有限公司 | 显示方法、装置、终端设备及存储介质 |
TWI676459B (zh) * | 2018-08-14 | 2019-11-11 | 晉弘科技股份有限公司 | 眼底相機 |
JP7226836B2 (ja) * | 2018-11-06 | 2023-02-21 | 日本電気株式会社 | 表示制御装置、プレゼンテーションシステム、表示制御方法、及びプログラム |
CN109379581A (zh) * | 2018-12-05 | 2019-02-22 | 北京阿法龙科技有限公司 | 一种头戴式双屏幕立体显示***的坐标变换及显示方法 |
JP7276823B2 (ja) * | 2019-03-28 | 2023-05-18 | 学校法人早稲田大学 | 視覚認知機能評価システム |
JP2021105782A (ja) * | 2019-12-26 | 2021-07-26 | セイコーエプソン株式会社 | 表示システム、表示方法、及び、プログラム |
EP4202531A4 (en) * | 2020-11-24 | 2024-03-20 | Samsung Electronics Co., Ltd. | WEARABLE ELECTRONIC DEVICE WITH AUGMENTED REALITY INCLUDING A CAMERA |
TW202235956A (zh) | 2021-03-05 | 2022-09-16 | 大立光電股份有限公司 | 頭戴裝置 |
CN113155417B (zh) * | 2021-04-25 | 2022-10-18 | 歌尔股份有限公司 | 偏移状态测试方法、测试设备及存储介质 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6091899A (en) * | 1988-09-16 | 2000-07-18 | Canon Kabushiki Kaisha | Apparatus for detecting the direction of visual axis and information selecting apparatus utilizing the same |
JP2000102036A (ja) * | 1998-09-22 | 2000-04-07 | Mr System Kenkyusho:Kk | 複合現実感提示システム、複合現実感提示方法、マン・マシーンインタフェース装置、およびマン・マシーンインタフェース方法 |
JP3631151B2 (ja) * | 2000-11-30 | 2005-03-23 | キヤノン株式会社 | 情報処理装置、複合現実感提示装置及びその方法並びに記憶媒体 |
JP3673834B2 (ja) | 2003-08-18 | 2005-07-20 | 国立大学法人山口大学 | 眼球運動を用いた視線入力コミュニケーション方法 |
JP4491598B2 (ja) | 2003-10-27 | 2010-06-30 | 独立行政法人産業技術総合研究所 | 画像表示システム |
JP5358540B2 (ja) * | 2010-09-07 | 2013-12-04 | 本田技研工業株式会社 | 視線検出装置 |
EP2812775A1 (en) * | 2012-02-06 | 2014-12-17 | Sony Mobile Communications AB | Gaze tracking with projector |
EP2893388B1 (en) | 2012-09-03 | 2016-08-03 | SensoMotoric Instruments Gesellschaft für innovative Sensorik mbH | Head mounted system and method to compute and render a stream of digital images using a head mounted system |
KR20140090552A (ko) * | 2013-01-09 | 2014-07-17 | 엘지전자 주식회사 | 시선 캘리브레이션을 제공하는 헤드 마운트 디스플레이 및 그 제어 방법 |
JP6265348B2 (ja) * | 2013-05-22 | 2018-01-24 | 国立大学法人神戸大学 | 視線計測装置、視線計測方法および視線計測プログラム |
US9480397B2 (en) * | 2013-09-24 | 2016-11-01 | Sony Interactive Entertainment Inc. | Gaze tracking variations using visible lights or dots |
CN103557859B (zh) * | 2013-10-10 | 2015-12-23 | 北京智谷睿拓技术服务有限公司 | 图像采集定位方法及图像采集定位*** |
US9727135B2 (en) * | 2014-04-30 | 2017-08-08 | Microsoft Technology Licensing, Llc | Gaze calibration |
-
2014
- 2014-11-17 JP JP2014232750A patent/JP6459421B2/ja active Active
-
2015
- 2015-10-23 US US14/921,613 patent/US10627620B2/en active Active
- 2015-11-16 CN CN201510783106.8A patent/CN105607255B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
US20160140773A1 (en) | 2016-05-19 |
US10627620B2 (en) | 2020-04-21 |
CN105607255A (zh) | 2016-05-25 |
CN105607255B (zh) | 2020-03-10 |
JP2016095779A (ja) | 2016-05-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6459421B2 (ja) | 頭部装着型表示装置、頭部装着型表示装置を制御する方法、コンピュータープログラム | |
US10297062B2 (en) | Head-mounted display device, control method for head-mounted display device, and computer program | |
JP6337418B2 (ja) | 頭部装着型表示装置および頭部装着型表示装置の制御方法 | |
KR101845350B1 (ko) | 두부 장착형 표시 장치 및 두부 장착형 표시 장치의 제어 방법 | |
JP6217244B2 (ja) | 画像処理装置、これを有する頭部装着型表示装置、画像処理方法およびコンピュータープログラム | |
JP6369005B2 (ja) | 頭部装着型表示装置および頭部装着型表示装置の制御方法 | |
WO2016063504A1 (ja) | 頭部装着型表示装置およびその制御方法、並びにコンピュータープログラム | |
JP6488786B2 (ja) | 頭部装着型表示装置、頭部装着型表示装置の制御方法、および、コンピュータープログラム | |
JP6645096B2 (ja) | 頭部装着型表示装置、頭部装着型表示装置の制御方法、およびコンピュータープログラム | |
JP6459380B2 (ja) | 頭部装着型表示装置、頭部装着型表示装置の制御方法、および、コンピュータープログラム | |
US9799144B2 (en) | Head mounted display, and control method for head mounted display | |
JP6492673B2 (ja) | 頭部装着型表示装置、頭部装着型表示装置を制御する方法、コンピュータープログラム | |
JP2017091433A (ja) | 頭部装着型表示装置、頭部装着型表示装置を制御する方法、コンピュータープログラム | |
JP6303274B2 (ja) | 頭部装着型表示装置および頭部装着型表示装置の制御方法 | |
JP6620417B2 (ja) | 表示装置およびその制御方法、並びにコンピュータープログラム | |
JP6451222B2 (ja) | 頭部装着型表示装置、頭部装着型表示装置の制御方法、および、コンピュータープログラム | |
JP6683218B2 (ja) | 頭部装着型表示装置および頭部装着型表示装置の制御方法 | |
JP6394108B2 (ja) | 頭部装着型表示装置およびその制御方法、並びにコンピュータープログラム | |
JP6287399B2 (ja) | 頭部装着型表示装置および頭部装着型表示装置の制御方法 | |
JP6394174B2 (ja) | 頭部装着型表示装置、画像表示システム、頭部装着型表示装置を制御する方法、および、コンピュータープログラム | |
JP2016142966A (ja) | 頭部装着型表示装置、情報処理装置、画像表示装置、画像表示システム、頭部装着型表示装置の表示を共有する方法、コンピュータープログラム | |
JP2018107823A (ja) | 頭部装着型表示装置および頭部装着型表示装置の制御方法 | |
JP2016186658A (ja) | 頭部装着型表示装置および方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170731 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170731 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180911 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181107 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20181204 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181217 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6459421 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |