JP5262682B2 - ヘッドマウントディスプレイ - Google Patents
ヘッドマウントディスプレイ Download PDFInfo
- Publication number
- JP5262682B2 JP5262682B2 JP2008326883A JP2008326883A JP5262682B2 JP 5262682 B2 JP5262682 B2 JP 5262682B2 JP 2008326883 A JP2008326883 A JP 2008326883A JP 2008326883 A JP2008326883 A JP 2008326883A JP 5262682 B2 JP5262682 B2 JP 5262682B2
- Authority
- JP
- Japan
- Prior art keywords
- sensor
- image
- mounted display
- information
- head
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 230000000007 visual effect Effects 0.000 claims description 39
- 230000002194 synthesizing effect Effects 0.000 claims description 9
- 238000004891 communication Methods 0.000 claims description 6
- 230000015572 biosynthetic process Effects 0.000 claims description 4
- 238000003786 synthesis reaction Methods 0.000 claims description 4
- 238000003860 storage Methods 0.000 claims description 3
- 238000000034 method Methods 0.000 description 204
- 230000008569 process Effects 0.000 description 201
- 230000003287 optical effect Effects 0.000 description 21
- 210000003128 head Anatomy 0.000 description 15
- 230000005540 biological transmission Effects 0.000 description 10
- 230000008859 change Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 230000008878 coupling Effects 0.000 description 5
- 238000010168 coupling process Methods 0.000 description 5
- 238000005859 coupling reaction Methods 0.000 description 5
- 239000013307 optical fiber Substances 0.000 description 5
- UGFAIRIUMAVXCW-UHFFFAOYSA-N Carbon monoxide Chemical compound [O+]#[C-] UGFAIRIUMAVXCW-UHFFFAOYSA-N 0.000 description 3
- 210000005252 bulbus oculi Anatomy 0.000 description 3
- 229910002091 carbon monoxide Inorganic materials 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000003825 pressing Methods 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 230000000717 retained effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 239000003086 colorant Substances 0.000 description 1
- 239000000428 dust Substances 0.000 description 1
- 210000001508 eye Anatomy 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000029553 photosynthesis Effects 0.000 description 1
- 238000010672 photosynthesis Methods 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 239000000779 smoke Substances 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Landscapes
- Control Of Indicators Other Than Cathode Ray Tubes (AREA)
- Controls And Circuits For Display Device (AREA)
Description
ユーザの頭部に装着される頭部装着部と、
前記頭部装着部の前部に取り付けられ、画像を表示し、ユーザに当該画像を視認させる画像表示部を有するヘッドマウントディスプレイにおいて、
複数位置に設置されたセンサが計測したセンシング情報及び、前記各センサの個体識別情報、各センサの座標情報を取得する情報取得手段と、
ヘッドマウントディスプレイの座標を算出又は取得するヘッドマウントディスプレイ座標取得手段と、
ユーザの視線方向を計測する視線方向計測手段と、
前記情報取得手段が取得した前記各センサの座標情報及び、前記ヘッドマウントディスプレイ座標取得手段が取得したヘッドマウントディスプレイの座標に基づいて、ヘッドマウントディスプレイの座標を基点とした前記各センサの相対座標を算出するセンサ相対座標算出手段と、
前記視線方向計測手段が計測したユーザの視線方向情報から、ユーザの視界領域を算出する視界領域算出手段と、
前記視界領域算出手段が算出した視界領域及び、前記センサ相対座標算出手段が算出した前記各センサのセンサ相対座標に基づき、前記視界領域内および視界領域を視界方向に延長した領域内にある通信可能なセンサを選択するセンサ選択手段と、
前記センサ選択手段が選択した各センサのセンサ相対座標と前記情報取得手段が取得した前記各センサのセンシング情報に基づき、画像表示部で表示するセンシング情報画像を生成するセンシング情報画像生成手段と、
を有することを特徴とする。
センサ相対座標算出手段が算出した前記各センサのセンサ相対座標に基づき、前記センサ選択手段が選択した各センサの前記画像表示部で表示する画像上の座標である画像座標を算出する画像座標算出手段を有し、
センシング情報画像生成手段は、前記画像座標算出手段が算出した前記各センサの画像座標及び、情報取得手段が取得した前記各センサのセンシング情報に基づき、画像表示部で表示するセンシング情報画像を生成することを特徴とする。
情報取得手段は、部屋に配置された複数のセンサが計測したセンシング情報及び前記各センサの座標情報を取得し、
前記部屋の境界情報を記憶した境界情報記憶部と、
視線方向計測手段が計測したユーザの視線方向及び、前記境界情報、ヘッドマウントディスプレイ座標取得手段が取得したヘッドマウントディスプレイの座標に基づき、前記部屋の境界線をセンシング情報画像に合成する境界線合成手段と、
を有することを特徴とする。
境界線合成手段は、
異なる部屋ごとに境界線の表示を変えて、これら境界線をセンシング情報画像に合成することを特徴とする。
各センサのヘッドマウントディスプレイに対する距離情報を算出するセンサ距離算出手段を有し、
ヘッドマウントディスプレイ座標取得手段は、前記センサ距離算出手段が算出した距離情報及び、情報取得手段が取得した各センサの個体識別情報及び座標情報に基づいて、ヘッドマウントディスプレイの座標を算出することを特徴とする。
このため、ユーザがセンシング情報画像を、実際のユーザの視界に重ね合わせて視認することができることから、ユーザが、センサが検知したセンシング情報を臨場感を持って把握することが可能となる。
このため、画像生成部で表示するセンシング情報画像を正確に表示することが可能となる。
このため、ヘッドマウントディスプレイの座標を正確に算出することができることから、画像生成部で表示するセンシング情報画像を正確に表示することが可能となる。
以下に図面を示しつつ、本発明の概要を説明する。図1は本発明のヘッドマウントディスプレイ100の全体図である。ヘッドマウントディスプレイ100は、ユーザの頭部に装着される頭部装着部1と、ユーザに視認させる画像を表示する画像表示部2とから構成されている。
図3は本発明のヘッドマウントディスプレイ100のブロック図である。画像表示部2は、制御部40を有している。制御部40は、CPU41、RAM42、ROM43、不揮発性メモリ44、入力インターフェース45、無線インターフェース55を有していて、これらは相互にバス46で接続されている。
図4にメイン処理のフロー図を示し、メイン処理について説明する。ユーザが電源ボタン50を操作することにより、ヘッドマウントディスプレイ100の電源が投入されると、S11「初期化」の処理に進む。S11の処理において、ユーザは、設定変更ボタン51を操作することにより、「表示更新間隔」や「モード」を設定することができる。「表示更新間隔」とは、画像表示部2で表示する「センシング情報画像」を更新する間隔である。なお、「モード」には、「非透過モード」、「透過モード」、「視界領域全センサ閲覧モード」(広義の透過モード)がある。図20に示されるように、「非透過モード」とは、ヘッドマウントディスプレイ100がある領域、つまり、ユーザが見ることができる領域(例えば、ユーザが居る部屋)に取り付けられたセンサ500が計測した「センシング情報」のみから、「センシング情報画像」を生成するモードである。「透過モード」とは、ヘッドマウントディスプレイ100が無い領域、つまり、ユーザが見ることができない領域に取り付けられたセンサ500が計測した「センシング情報」から、「センシング情報画像」を生成するモードである。S11の処理が終了すると、S12「センシング情報受信処理起動」の処理に進む。
図5にセンシング情報取得処理のフロー図を示して、当該処理について説明する。S12の処理で、CPU41が、「センシング情報受信処理」を開始させると、以下の処理がメイン処理と並列に実行される。まず、S31「センサからデータ受信?」の判断処理に進む。S31の判断処理において、CPU41が、センサ500からデータを受信したと判断した場合には、S32「センサ情報テーブルに保存」の処理に進む。なお、前記データは、「個体識別情報」、「座標情報」、「部屋情報」、「センシング情報」である。ここで、通常、ユーザがいる部屋内のセンサ500からは直接無線通信によりデータを受信できる。また一例としてユーザがいない部屋にあるセンサ500からのデータは、ユーザが視界領域を視界方向に延長した方向の近くのセンサ500に転送され、これを順次ユーザがいる部屋にあるセンサ500にまで繰り返すことにより、ユーザがいない部屋のセンサ500からのデータもユーザがいる部屋のセンサ500から受信することができる。いわゆるセンサネットワークが形成され、センサ500がマルチホップ通信(リレー通信)を行う場合には、建物内の離れた部屋、直接電波の届かないところにあるセンサ500からのデータも全て受信することができることも可能である。
図8にヘッドマウントディスプレイ位置座標算出処理のフロー図を示して、以下当該処理について説明をする。図4のS16の処理が開始すると、図8のS41「近い順にセンサを4つ選択」の処理において、ヘッドマウントディスプレイ座標算出手段43bは、RAM42の記憶領域に記憶された「センサ情報テーブル」(図6に示す)を照合して、ヘッドマウントディスプレイ100から、最も近いセンサ500を4つ選択する。1つの部屋には複数のセンサ500が設けられているため、距離を算出できたセンサ500は部屋内のセンサ500となる。隣接した部屋のセンサ500から直接データが受信できた場合は、壁等の減衰により遠い距離にあるセンサ500として算出されるので、ここでは部屋内にあるセンサ500が選択されると考えて良い。S41の処理が終了すると、S42「ヘッドマウントディスプレイの位置座標算出」の処理に進む。
図10にセンサ選択処理のフロー図を示し、以下、当該フローについて説明する。図4のS17の処理が開始すると、図10のS51「初期化」の処理において、CPU41は、「視界水平角度」dh°及び「視界垂直角度」dv°を設定する。図11の(B)に示されるように、「視界水平角度」dh°は、ユーザの視界の水平方向の角度であり、ユーザが操作ボタン51を操作することにより任意に設定できるようになっている。図11の(C)に示されるように、「視界垂直角度」dv°は、ユーザの視界の垂直方向の角度であり、ユーザが操作ボタン51を操作することにより任意に設定できるようになっている。もちろん、人間の平均的な視界となるよう予め設定されていても良い。なお、図11の(A)〜(C)のx、y、z座標は、図7に示される建造物内にいるユーザの位置(ヘッドマウントディスプレイの位置)が原点となるように、建造物を基準としてセンサの座標を決定している座標軸を平行移動した相対座標である。S51の処理が終了すると、S52「視線水平角度を算出」の処理に進む。
具体的には、図12の(A)に示されるように、水平角度に関し、S52の処理で算出したユーザの視線方向の水平角度h°から、S51に処理で設定された「視界水平角度」dh°を、加算、減算した角度の範囲が、水平方向の視界の領域(以下「水平視界領域」とする)である。
また、図12の(B)に示されるように、垂直角度に関し、S53の処理で算出したユーザの視線方向の垂直角度v°から、S51の処理で設定された「視界垂直角度」dv°を、加算、減算した角度の範囲が、垂直方向の視界の領域(以下、「垂直視界領域」とする)である。S57の処理が終了すると、S58「センサが水平視界領域内にある?」の判断処理に進む。
(h°−視界水平角度dh°)≦θ_h°≦(h°+視界水平角度dh°)……(式3)
センサ選択手段43fが、通信可能なセンサ500が「水平視界領域」内および「水平視界領域」を視界方向に延長した領域内にあると判断した場合には、S59「センサが垂直視界領域内にある?」の判断処理に進む。一方で、センサ選択手段43fが、通信可能なセンサ500が「水平視界領域」内および「水平視界領域」を視界方向に延長した領域内にないと判断した場合には、S54の判断処理に戻る。
(v°−視界垂直角度dv°)≦θ_v°≦(v°+視界垂直角度dv°)……(式4)
センサ選択手段43fが、通信可能なセンサ500が「垂直視界領域」内および「垂直視界領域」を視界方向に延長した領域内にあると判断した場合には、S60「センサを表示リストに登録」の処理に進む。一方で、センサ選択手段43fが、通信可能なセンサ500が「垂直視界領域」内および「垂直視界領域」を視界方向に延長した領域内にないと判断した場合には、S54の判断処理に戻る。
図14にセンシング情報画像表示処理のフロー図を示して、以下当該処理について説明をする。図4のS18の処理が開始するとS71「透過モード?」の判断処理で、CPU41は、ヘッドマウントディスプレイ100の状態が「透過モード」であるか否かを判断する。CPU41が、ヘッドマウントディスプレイ100の状態が「透過モード」であると判断した場合には、S72「ユーザが見ることができる領域のセンサを表示リストから削除」の処理に進む。一方で、CPU41は、ヘッドマウントディスプレイ100の状態が「透過モード」でないと判断した場合には、S75「非透過モード?」の判断処理に進む。
(1)ユーザの視線方向の直線をw軸とする。
w軸に直交する軸を、p軸とする。
(2)視野範囲内の任意のセンサ500(図15の例では、センサA)を選択し、当該センサAを通りw軸と、直交する直線vを引く。 直線vは、wa=d_a×cos(h°−θ_h°)=√(xa2+ya2)×cos(h°−θ_h°)(式5)と表すことができる。
(3)右側最大視野方向の直線及び左側最大視野方向の直線は、いずれもw軸に対する角度は視野水平角度なので、(図12に示す)、右側の視野水平角度をdh1°、左側の視野水平角度をdh2°とすると、P=a1w(式6)P=a2w(式7)と表すことができる。ここで、a1=tan(−dh1°)、a2=tan(dh2°)
(4)式5及び式6とから、直線Vと右側最大視野方向の直線との交点mの座標(pm、wm)を算出する。
また、式5及び式7とから、直線Vと左側最大視野方向の直線との交点nの座標(pn、wn)を算出する。
交点mの座標(pm、wm)及び交点nの座標(pn、wn)から、下式8に示されるように、仮画面の横幅を算出する。
|pm−pn|…(式8)
(5)また、w軸(仮想画面の中心)からのセンサAの距離p_aは、下式9で求めることができる。
p_a=d_a×sin(h°−θ_h°)=√(xa2+ya2)×sin(h°−θ_h°)…(式9)
(6)センサBについては、ヘッドマウントディスプレイ原点及びセンサBを通る直線の式と、直線vの式から、両直線の交点の座標を算出することができ(xb’、yb’)当該座標から、上記した(1)〜(5)と同じ手法で、w軸(仮想画面の中心)からのセンサBの距離p_bを算出する。他のセンサ500についても同様の手法で、仮画面上の各センサ500の横幅方向の位置を算出する。
(7)図16に示されるように、同様の手法で、仮画面上の各センサ500の縦幅方向の位置を算出する。
(8)図17に示されるように、仮画面上のセンサの位置関係を保ったまま、画像表示部2が生成する画面のサイズに縮小することにより、画像生成装置2が表示する画像上の各センサ500の「画像座標」が算出される。
S73の処理が終了すると、S74「センシング情報画像及び境界線をヘッドマウントディスプレイで表示」の処理に進む。
2 画像表示部
20 走査画像光照射部
21 走査光生成部
22 コリメート光学系
23 垂直走査部
23a 共振型偏向素子
23b 垂直走査制御回路
24 水平走査部
24a 偏向素子
24b 水平走査制御回路
25 リレー光学系
26 リレー光学系
26a レンズ系
26b レンズ系
27 光ファイバ
40 制御部
41 CPU
42 RAM
43 ROM
43a センサ距離算出手段
43b ヘッドマウントディスプレイ座標算出手段
43c 視線方向算出手段
43d センサ相対座標算出手段
43e 視界領域算出手段
43f センサ選択手段
43g 画像座標算出手段
43h センシング情報画像生成手段
43i 境界情報合成手段
44 不揮発性メモリ
44a 表示パターンテーブル
44b 境界情報
45 入力インターフェース
46 バス
50 電源ボタン
51 設定変更ボタン
52 モード切替ボタン
53 包囲センサ
54 傾きセンサ
55 無線インターフェース
100 ヘッドマウントディスプレイ
211 信号処理回路
212 光源部
212a Bレーザドライバ
212b Gレーザドライバ
212c Rレーザドライバ
212d Bレーザ
212e Gレーザ
212f Rレーザ
213 光合成部
213a〜213c コリメート光学系
213d〜213f ダイクロイックミラー
213g 結合光学系
214 画像信号
215 垂直駆動信号
216 水平駆動信号
500 センサ
600 高濃度のガスが滞留している領域
700 センシング情報画像(高濃度の一酸化炭素が滞留している領域)
710 境界線
E 眼球
Ea 瞳孔
Claims (5)
- ユーザの頭部に装着される頭部装着部と、
前記頭部装着部の前部に取り付けられ、画像を表示し、ユーザに当該画像を視認させる画像表示部を有するヘッドマウントディスプレイにおいて、
複数位置に設置されたセンサが計測したセンシング情報及び、前記各センサの個体識別情報、各センサの座標情報を取得する情報取得手段と、
ヘッドマウントディスプレイの座標を算出又は取得するヘッドマウントディスプレイ座標取得手段と、
ユーザの視線方向を計測する視線方向計測手段と、
前記情報取得手段が取得した前記各センサの座標情報及び、前記ヘッドマウントディスプレイ座標取得手段が取得したヘッドマウントディスプレイの座標に基づいて、ヘッドマウントディスプレイの座標を基点とした前記各センサの相対座標を算出するセンサ相対座標算出手段と、
前記視線方向計測手段が計測したユーザの視線方向情報から、ユーザの視界領域を算出する視界領域算出手段と、
前記視界領域算出手段が算出した視界領域及び、前記センサ相対座標算出手段が算出した前記各センサのセンサ相対座標に基づき、前記視界領域内および視界領域を視界方向に延長した領域内にある通信可能なセンサを選択するセンサ選択手段と、
前記センサ選択手段が選択した各センサのセンサ相対座標と前記情報取得手段が取得した前記各センサのセンシング情報に基づき、画像表示部で表示するセンシング情報画像を生成するセンシング情報画像生成手段と、
を有することを特徴とするヘッドマウントディスプレイ。 - センサ相対座標算出手段が算出した前記各センサのセンサ相対座標に基づき、前記センサ選択手段が選択した各センサの前記画像表示部で表示する画像上の座標である画像座標を算出する画像座標算出手段を有し、
センシング情報画像生成手段は、前記画像座標算出手段が算出した前記各センサの画像座標及び、情報取得手段が取得した前記各センサのセンシング情報に基づき、画像表示部で表示するセンシング情報画像を生成することを特徴とする請求項1に記載のヘッドマウントディスプレイ。 - 前記情報取得手段は、部屋に配置された複数のセンサが計測したセンシング情報及び前記各センサの座標情報を取得し、
前記部屋の境界情報を記憶した境界情報記憶部と、
視線方向計測手段が計測したユーザの視線方向及び、前記境界情報、ヘッドマウントディスプレイ座標取得手段が取得したヘッドマウントディスプレイの座標に基づき、前記部屋の境界線をセンシング情報画像に合成する境界線合成手段と、
を有することを特徴とする請求項1〜請求項2のいずれかに記載のヘッドマウントディスプレイ。 - 前記境界線合成手段は、
異なる部屋ごとに境界線の表示を変えて、これら境界線をセンシング情報画像に合成することを特徴とする請求項3に記載のヘッドマウントディスプレイ。 - 各センサのヘッドマウントディスプレイに対する距離情報を算出するセンサ距離算出手段を有し、
ヘッドマウントディスプレイ座標取得手段は、前記センサ距離算出手段が算出した距離情報及び、情報取得手段が取得した各センサの個体識別情報及び座標情報に基づいて、ヘッドマウントディスプレイの座標を算出することを特徴とする請求項1〜請求項4のいずれかに記載のヘッドマウントディスプレイ。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008326883A JP5262682B2 (ja) | 2008-12-24 | 2008-12-24 | ヘッドマウントディスプレイ |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008326883A JP5262682B2 (ja) | 2008-12-24 | 2008-12-24 | ヘッドマウントディスプレイ |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010151867A JP2010151867A (ja) | 2010-07-08 |
JP5262682B2 true JP5262682B2 (ja) | 2013-08-14 |
Family
ID=42571071
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008326883A Expired - Fee Related JP5262682B2 (ja) | 2008-12-24 | 2008-12-24 | ヘッドマウントディスプレイ |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5262682B2 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012053115A1 (ja) * | 2010-10-22 | 2012-04-26 | 富士通株式会社 | データセンタ、情報処理システム、情報処理装置、情報処理装置の制御方法および制御プログラム |
JP5333477B2 (ja) * | 2011-02-14 | 2013-11-06 | 日本電気株式会社 | 現場作業支援システム、装置、方法及びプログラム |
JP6375591B2 (ja) * | 2013-01-15 | 2018-08-22 | セイコーエプソン株式会社 | 頭部装着型表示装置、頭部装着型表示装置の制御方法、および、画像表示システム |
JP6108926B2 (ja) * | 2013-04-15 | 2017-04-05 | オリンパス株式会社 | ウェアラブル装置、プログラム及びウェアラブル装置の表示制御方法 |
JP2015048171A (ja) * | 2013-08-30 | 2015-03-16 | 学校法人立命館 | ピッキングシステム |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11153492A (ja) * | 1997-11-21 | 1999-06-08 | Sekisui House Ltd | 住宅における温熱環境ディスプレイ装置 |
JP2002132241A (ja) * | 2000-10-27 | 2002-05-09 | Nippon Telegr & Teleph Corp <Ntt> | 実空間をベースにした仮想空間表示システム |
JP2004180208A (ja) * | 2002-11-29 | 2004-06-24 | Toshiba Corp | テレビジョン信号視聴装置 |
JP2004219664A (ja) * | 2003-01-14 | 2004-08-05 | Sumitomo Electric Ind Ltd | 情報表示システム及び情報表示方法 |
JP4705355B2 (ja) * | 2004-10-04 | 2011-06-22 | 株式会社日立製作所 | 無線タグのデータ表示システム、携帯型コンピュータおよび無線タグのデータ表示方法 |
JP2007078911A (ja) * | 2005-09-13 | 2007-03-29 | Nikon Corp | 映像表示装置 |
JP2007272067A (ja) * | 2006-03-31 | 2007-10-18 | Brother Ind Ltd | 画像表示装置 |
JP5228305B2 (ja) * | 2006-09-08 | 2013-07-03 | ソニー株式会社 | 表示装置、表示方法 |
-
2008
- 2008-12-24 JP JP2008326883A patent/JP5262682B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2010151867A (ja) | 2010-07-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5104679B2 (ja) | ヘッドマウントディスプレイ | |
US20090096714A1 (en) | Image display device | |
US11054650B2 (en) | Head-mounted display device, control method of head-mounted display device, and display system | |
US10242504B2 (en) | Head-mounted display device and computer program | |
JP5293025B2 (ja) | ヘッドマウントディスプレイ | |
JP5262682B2 (ja) | ヘッドマウントディスプレイ | |
JP5262681B2 (ja) | ヘッドマウントディスプレイ及びそのプログラム | |
JP6506276B2 (ja) | 走査レーザ近接検出 | |
KR20180035895A (ko) | 정보 디스플레이 장치, 정보 제공 시스템, 이동체 디바이스, 정보 디스플레이 방법 및 기록 매체 | |
KR20230164249A (ko) | 역각 회절 격자를 가진 가상/증강 현실 시스템 | |
CN111684336A (zh) | 使用了视网膜扫描型显示部的图像显示装置及其方法 | |
US10634904B2 (en) | Image projection device | |
JP2015111772A (ja) | 投影装置 | |
JP6735023B2 (ja) | 表示画像作成装置および画像表示装置 | |
CN109613706A (zh) | 针对智能头戴设备的调整方法、设备及存储介质 | |
JP2015060071A (ja) | 画像表示装置、画像表示方法、および画像表示プログラム | |
JPWO2013024539A1 (ja) | 虚像表示装置 | |
JP2016024208A (ja) | 表示装置、表示装置の制御方法、および、プログラム | |
JP2016033611A (ja) | 情報提供システム、表示装置、および、表示装置の制御方法 | |
JP5109952B2 (ja) | ヘッドマウントディスプレイ | |
JP2020184014A (ja) | 光源装置、光走査装置、表示システムおよび移動体 | |
JP2006276633A (ja) | 画像表示装置 | |
JP5348004B2 (ja) | ストライクゾーン提示システム | |
JP2011069849A (ja) | ヘッドマウントディスプレイ | |
JP4599858B2 (ja) | 画像表示装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110310 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20121205 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20121211 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130205 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130402 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130415 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 Ref document number: 5262682 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |