JP2011197736A - 視界支援装置 - Google Patents
視界支援装置 Download PDFInfo
- Publication number
- JP2011197736A JP2011197736A JP2010060735A JP2010060735A JP2011197736A JP 2011197736 A JP2011197736 A JP 2011197736A JP 2010060735 A JP2010060735 A JP 2010060735A JP 2010060735 A JP2010060735 A JP 2010060735A JP 2011197736 A JP2011197736 A JP 2011197736A
- Authority
- JP
- Japan
- Prior art keywords
- user
- head
- display device
- image
- transmissive region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Position Input By Displaying (AREA)
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】 使用者が頭部装着型の表示装置で視界範囲外の周囲画像を見る場合に、その方向へ頭を向ける必要がない視界支援装置を得る。
【解決手段】 移動体の周囲の画像を撮影する複数の撮像装置1〜3と、複数の撮像装置が撮像した画像から全周囲画像を合成する統合画像生成装置10と、使用者20の頭部へ装着できる表示装置11と、使用者20の頭部の動きを検出する頭部動作検出装置12とを備えることで、視界範囲外の周囲画像をスクロールさせて見ることができる。
【選択図】 図1
【解決手段】 移動体の周囲の画像を撮影する複数の撮像装置1〜3と、複数の撮像装置が撮像した画像から全周囲画像を合成する統合画像生成装置10と、使用者20の頭部へ装着できる表示装置11と、使用者20の頭部の動きを検出する頭部動作検出装置12とを備えることで、視界範囲外の周囲画像をスクロールさせて見ることができる。
【選択図】 図1
Description
本発明は、移動体に取り付けられた複数の撮像装置が撮像した画像から生成した、全周囲画像を、使用者の視線情報に基づき表示する頭部装着型の視界支援装置に関するものである。
頭部装着型の画像表示装置(ヘッド・マウント・ディスプレイ)としては、災害時の救助活動に使用されるものや、移動体の操縦者などが使用するものなどが知られている。(例えば、特許文献1、2、3、4参照)
従来の頭部装着型の表示装置は、使用者が向いている方向の画像を取得し表示することが前提であり、またその視界も狭い範囲内に限られている。このため、使用者が視界範囲外(死角)の周囲画像を見る場合は、その方向へ頭を向ける必要があり、頭部装着型の画像表示装置を装着したまま頭部を動かす動作により、頚部に負担がかかるという問題があった。
また、使用者が直に視界の範囲内にあるものを見ている実体(外界の景色)と、各種情報とを同時に表示するには、透過型の表示装置に画像を重ね合わせる。このため、外界の景色が見えにくくなるという問題があった。
本発明は、係る課題を解決するためになされたものであり、頭部装着型の表示装置を装着して視界範囲外の周囲画像を見る際に、装着者の負担を軽減する視界支援装置を得ることを目的とする。
本発明による視界支援装置は、移動体の周囲の画像を撮影する複数の撮像装置と、上記複数の撮像装置が撮像した画像から全周囲画像を合成する統合画像生成装置と、使用者の頭部へ装着でき使用者から見た視界の中心部に情景を見ることができる透過領域と、上記統合画像生成装置が生成した全周囲画像を表示するための透過領域の周りを囲む非透過領域とを有する表示装置と、上記使用者の頭部の動きを検出する頭部動作検出装置と、を備え、上記表示装置は、上記頭部動作検出装置により検出される上記使用者の頭部の動き情報に基いて、上記非透過領域に表示される全周囲画像をスクロールさせる処理を行うものである。
本発明によれば、使用者は視界の範囲内にあるものが直に見える実体と、統合画像生成した全周囲画像のうち使用者の視界範囲外となる画像とを、頭部に装着した表示装置により同時に見ることができるため、頭部を動かすことなく視界範囲外を見ることができ、使用者の身体、特に頸部にかかる負担を軽減することができる。
実施の形態1.
以下に本発明における一実施の形態を説明する。
図1は本発明に係る実施の形態1による視界支援装置の構成を示すブロック図である。図2は本視界支援装置の表示装置11による視界の概念を示す図である。図3は本視界支援装置における表示装置11の使用者20から見た視界の概念を示す図である。
以下に本発明における一実施の形態を説明する。
図1は本発明に係る実施の形態1による視界支援装置の構成を示すブロック図である。図2は本視界支援装置の表示装置11による視界の概念を示す図である。図3は本視界支援装置における表示装置11の使用者20から見た視界の概念を示す図である。
図1において、視界支援装置は、複数の撮像装置1,2,3と、統合画像生成装置10と、表示装置11と、頭部動作検出装置12を備えている。複数の撮像装置1,2,3、統合画像生成装置10、表示装置11、および頭部動作検出装置12は、頭部装着具21に設けられており、頭部装着型の画像表示装置(ヘッド・マウント・ディスプレイ)を構成している。頭部装着具21は、ヘルメットや、ヘッドバンド、帽子などによって構成され、使用者20の頭部に装着される。
撮像装置1〜3は、それぞれ移動体の周囲の画像を撮影する。撮像装置1〜3の視線軸の方向は、例えば頭囲360度周りに120度間隔で、前右側方、前左側方、および後方をそれぞれ向くように設置されている。撮像装置1〜3は、例えば使用者20が搭乗する移動体の外部において、頭部装着具21の前右側方、前左側方、および後方に取り付けられ、頭囲360度周りに120度間隔で設置される。また、頭部装着具21に直接、撮像装置1〜3が設置され、頭部装着具21の前右側方、前左側方、および後方に取り付けられ、頭囲360度周りに120度間隔で設けられても良い。なお、隣接する撮像装置1〜3間の視線軸の角度差は、120度以外の角度でも良く、その設置角度も他の角度間隔であっても良い。
統合画像生成装置10は、頭部装着具21に実装されて、複数の撮像装置1〜3が撮像した画像から、全周囲画像を合成する。当該全周画像は、各撮影装置の視線軸を中心とした所定の視野角内の画像を、使用者20の全周囲(周囲球面の全周範囲)に貼り付けることによって構成され、隣接する撮像装置1〜3間で画像に部分的な重なりを有していても良い。表示装置11は、頭部装着具21の前方に取り付けられ、使用者20の視線に対向する位置に装着される。頭部動作検出装置12は、頭部装着具21に実装され、使用者20の頭部の動きを検出する。頭部動作検出装置12は、例えばジャイロや加速度検出器が設けられており、頭部の角速度や基準軸(視線軸)の方向を検出することで使用者20の頭部の動きを検出する。なお、統合画像生成装置10は、必ずしも頭部装着具21に実装されている必要はない。
図1は撮像装置が3つの場合の例を示しているが、これは撮像装置の数を限定するものではなく、2つ以上あれば良い。また、図2において、表示装置11は、使用者20から見た視界の中心部(眼前)に設けられた透過(シースルー)領域30と、透過領域30の周りを囲む非透過領域31が形成されている。透過領域30は、例えば可視光透過性の樹脂部材で設けられたサンバイザによって構成される。非透過領域31は、EL素子画像表示デバイスや液晶画像表示デバイスなどの表示画面によって構成される。表示装置11は、頭部動作検出装置12により検出される使用者の頭部の動き情報に基いて、非透過領域31に表示される全周囲画像をスクロールさせるスクロール処理部が設けられている。
本視界支援装置は、以上のように構成されて次のように動作する。
本視界支援装置は、図1に示すように、移動体に取り付けられた複数の撮像装置1〜3が撮像した画像から、統合画像生成装置10により全周囲画像が生成される。頭部動作検出装置12により検出された使用者20の頭部の動き情報を基に、統合画像生成装置10の生成した全周囲画像のうち使用者20の視線方向の画像をスクロールし、スクロールした画像を頭部に装着した表示装置11を通じて使用者20へ供給する。
本視界支援装置は、図1に示すように、移動体に取り付けられた複数の撮像装置1〜3が撮像した画像から、統合画像生成装置10により全周囲画像が生成される。頭部動作検出装置12により検出された使用者20の頭部の動き情報を基に、統合画像生成装置10の生成した全周囲画像のうち使用者20の視線方向の画像をスクロールし、スクロールした画像を頭部に装着した表示装置11を通じて使用者20へ供給する。
本視界支援装置における表示装置11の視界は、図2に示すようになされている。視界の中心部には、使用者20が視界の範囲内にあるものを直に見るための透過領域30が配置される。また、透過領域30の周囲には、統合画像生成装置10が生成した全周囲画像のうち、使用者20の視界の範囲外(死角)となる画像を表示するための透過領域30の周りを囲む非透過領域31が配置される。非透過領域31の範囲は概ね人の視界の範囲と一致するものとする。
図3(a)は表示装置11と移動体の窓40を通じて移動体の周囲画像が見える様子を示している。図3(b)は表示装置11の透過領域30が移動体の窓40の端面41に接した場合の透過領域30の周囲画像の動きを示した図である。
図3では、使用者20が窓40の設けられた移動体に搭乗している例が示されている。表示装置11の使用者20から見た視界は、移動体の窓40の窓の端面41によって制限され、窓の端面41から外側の領域は使用者20の目視によって直接見ることができないものとする。また、図3において、表示装置11によって生成された全周囲画像のうち、透過領域30の周囲画像50〜52が示されている。また、外界の景色53は使用者20が透過領域30越しに見えるものとする。
図3に示すように、使用者20が表示装置11の透過領域30の範囲外を見るために頭部を動かすと、その動きを頭部動作検出装置12が検出し、方向、角速度などの移動情報として表示装置11へ出力する。この移動情報を基に、表示装置11は、視界の中心部に位置する透過領域30が移動体の窓の端面41に接するか、または越えたことを認識する。
具体的には、移動情報として、頭部が図の右方向に回転中であるかもしくは回転してから停止し、かつ視線軸の方向が窓の端面41に接するか、または越えた位置を向いていることを認識する。当該認識に応じて、表示装置11のスクロール処理部は、使用者20が透過領域30越しに見える外界の景色53を含み、かつ非透過領域31に表示される透過領域30の周囲画像50〜52を、頭部の動きに応じて移動(スクロール)させる処理を行う。
また、表示装置11のスクロール処理部は、頭部動作検出装置12からの使用者20の頭部の方向、角速度などの移動情報から、頭部が正方向に回転してスクロールが開始した後、逆方向に反転したことを認識すると、非透過領域31に表示される透過領域30の周囲画像50〜52のスクロールを停止する処理を行う。
図3(a)における周囲画像50と51は、図3(b)においては表示装置11の周囲画像を表示するための非透過領域31から外れるため、見えなくなる。逆に図3(a)における周囲画像52は、図3(b)においては非透過領域31へ入ってくるため、見えるようになる。
このようにして、透過領域30が窓の端面41に接するか越えてしている間、非透過領域31に表示される周囲画像を移動(スクロール)し続けることで、使用者20は統合画像生成装置10が生成した全周囲画像から視界の範囲外(死角)の画像を見ることができる。
以上説明したとおり、実施の形態1による視界支援装置は、移動体の周囲の画像を撮影する複数の撮像装置(1〜3)と、上記複数の撮像装置(1〜3)が撮像した画像から全周囲画像を合成する統合画像生成装置10と、使用者の頭部へ装着でき使用者から見た視界の中心部に情景を見ることができる透過領域30と、上記統合画像生成装置10が生成した全周囲画像の一部を表示するための透過領域30の周りを囲む非透過領域31とを有する表示装置11と、上記使用者20の頭部の動きを検出する頭部動作検出装置12と、を備え、上記表示装置11は、上記頭部動作検出装置12により検出される上記使用者20の頭部の動き情報に基いて、上記非透過領域31に表示される全周囲画像をスクロールさせる処理を行う。
このようにして、非透過領域31に表示される周囲画像をスクロールし続けることで、使用者20は統合画像生成装置10が生成した全周囲画像から、視界の範囲外(死角)の画像を見ることができる。かくして、使用者20は視界の範囲内にあるものが直に見える実体(外界の景色)と、統合画像生成した全周囲画像のうち使用者の視界範囲外(死角)となる画像とを、頭部に装着した表示装置により同時に見ることができるため、頭部を動かすことなく視界範囲外(死角)を見ることができ、使用者の身体、特に頸部にかかる負担を軽減することができる。
実施の形態2.
図4は使用者20の眼球の動きに応じて周囲画像を移動させる場合の実施の形態2による視界支援装置の画像の動きを示すものであり、図4(a)は表示装置11の透過領域30と透過領域30の周りを囲む非透過領域31を通じて、外界の景色53と透過領域30の周囲画像50,51がスクロール前に見える状態を示した図であり、図4(b)は表示装置11の透過領域30と透過領域30の周りを囲む非透過領域31を通じて、外界の景色53と透過領域30の周囲画像52がスクロールして見える状態を示した図である。本実施の形態2による視界支援装置は、使用者20の眼球の動きを検出する眼球動作検出装置13が更に設けられており、眼球動作検出装置13は表示装置11に接続されている。
図4は使用者20の眼球の動きに応じて周囲画像を移動させる場合の実施の形態2による視界支援装置の画像の動きを示すものであり、図4(a)は表示装置11の透過領域30と透過領域30の周りを囲む非透過領域31を通じて、外界の景色53と透過領域30の周囲画像50,51がスクロール前に見える状態を示した図であり、図4(b)は表示装置11の透過領域30と透過領域30の周りを囲む非透過領域31を通じて、外界の景色53と透過領域30の周囲画像52がスクロールして見える状態を示した図である。本実施の形態2による視界支援装置は、使用者20の眼球の動きを検出する眼球動作検出装置13が更に設けられており、眼球動作検出装置13は表示装置11に接続されている。
眼球動作検出装置13は、使用者20の眼球の動きを検出し、視線方向60を移動情報として表示装置11へ出力する。眼球動作検出装置13は、表示装置11の外側に設置された図示しない眼球撮像装置(カメラ)が、透過領域30を介して使用者20の眼球を撮像し、眼球撮影画像について画像処理を行うことにより、使用者20の眼球の動きの検出を行う。これによって、眼球の視線方向60が非透過領域31内に存在することを認識すると、その視線方向60の向く方向から正面(透過領域30を向く)方向に向かって、非透過領域31に表示される透過領域30の周囲画像50〜52を移動(スクロール)させる。また、眼球動作検出装置13は、スクロールが開始した後、使用者20の眼球の動きから、視線方向60がスクロール開始時点での方向から正面方向に向かう方向に反転したことを検出すると、周囲画像50〜52のスクロールを停止する。
図4から容易にわかるとおり、図3で示した表示装置11は透過領域30と移動体の窓の端面41との関係を認識する必要がなくなるほか、使用者20は視線方向60を変えるだけで頭部を動かすことなく非透過領域31に表示される視界範囲外(死角)の周囲画像を移動(スクロール)することができる。このため、身体、特に頸部にかかる負担を更に軽減することができる。
実施の形態3.
図5は非透過領域31に表示するカーソル(擬似視線)70の動きに応じて周囲画像を移動させる場合の実施の形態3の画像の動きを示すものである。図5(a)は表示装置11の透過領域30と透過領域30の周りを囲む非透過領域31を通じて、外界の景色53と透過領域30の周囲画像50,51がスクロール前に見える状態を示した図であり、図5(b)は表示装置11の透過領域30と透過領域30の周りを囲む非透過領域31を通じて、外界の景色53と透過領域30の周囲画像52がスクロールして見える状態を示した図である。
図5は非透過領域31に表示するカーソル(擬似視線)70の動きに応じて周囲画像を移動させる場合の実施の形態3の画像の動きを示すものである。図5(a)は表示装置11の透過領域30と透過領域30の周りを囲む非透過領域31を通じて、外界の景色53と透過領域30の周囲画像50,51がスクロール前に見える状態を示した図であり、図5(b)は表示装置11の透過領域30と透過領域30の周りを囲む非透過領域31を通じて、外界の景色53と透過領域30の周囲画像52がスクロールして見える状態を示した図である。
本実施の形態3による視界支援装置は、表示装置11において、カーソル(擬似視線)70を表示装置11の表示画面に表示させるカーソル表示部(図示せず)が設けられている。カーソル表示部は、カーソル(擬似視線)70を表示装置11の表示画面に表示する。また、カーソル表示部は、使用者20による表示装置11の入力指示装置(図示せず)への操作入力に基いて、カーソル(擬似視線)70の位置を表示装置11の表示画面内で移動することができる。
眼球動作検出装置13の出力以外の情報を基に、使用者20が表示装置11へカーソル(擬似視線)70の表示位置を提示する。表示装置11は、カーソル(擬似視線)70の表示位置に基いて、カーソル(擬似視線)70が非透過領域31内に位置することを認識すると、カーソル(擬似視線)70の存在位置から正面(透過領域30を向く)方向に向かって、非透過領域31に表示される透過領域30の周囲画像50〜52を移動(スクロール)させる。また、表示装置11は、スクロールが開始した後、使用者20によるカーソルの操作指示により、カーソル(擬似視線)70がスクロール開始時点での方向から正面方向に向かう方向に反転移動したことを検出すると、周囲画像50〜52のスクロールを停止する。
図5によれば、図3で示した使用者20の頭部の動きを検出する頭部動作検出装置12、および図4で示した使用者20の眼球の動きを検出する眼球動作検出装置13は必要なくなるほか、非透過領域31に表示される視界範囲外(死角)の周囲画像の移動(スクロール)が使用者20の身体の動きに依存しなくなるため、使用者20以外の他者により制御することが可能となる。
実施の形態4.
図6は使用者毎に表示装置11の非透過領域31に表示される視界範囲外(死角)の周囲画像の移動(スクロール)を最適化する場合の実施の形態4の構成を示すものである。頭部や眼球の動きの癖や、体格の違いなどによる頭部に装着した表示装置11と移動体の窓40や窓の端面41との距離の違いなど、使用者毎の固有の情報を使用者情報記憶装置14に記憶する。この図6によれば、使用者に応じた固有の情報を表示装置11へ伝えることで、視線の位置や動きの癖などを表示制御へ加味することができ、表示精度の向上を図ることが可能となる。
図6は使用者毎に表示装置11の非透過領域31に表示される視界範囲外(死角)の周囲画像の移動(スクロール)を最適化する場合の実施の形態4の構成を示すものである。頭部や眼球の動きの癖や、体格の違いなどによる頭部に装着した表示装置11と移動体の窓40や窓の端面41との距離の違いなど、使用者毎の固有の情報を使用者情報記憶装置14に記憶する。この図6によれば、使用者に応じた固有の情報を表示装置11へ伝えることで、視線の位置や動きの癖などを表示制御へ加味することができ、表示精度の向上を図ることが可能となる。
本発明によれば、航空機や車両などの移動体において搭乗者が操縦や監視などのために必要とする視界の範囲外(死角)となる周囲画像を見ることができる。本発明は、航空機や船舶、自動車産業、交通運輸産業に広く利用できる。
1〜3 撮像装置、10 統合画像生成装置、11 表示装置、12 頭部動作検出装置、13 眼球動作検出装置、20 使用者、14 使用者情報記憶装置、30 透過領域、31 非透過領域、40 移動体の窓、41 窓の端面、50〜52 周囲画像、53 外界の景色、60 使用者の視線方向、70 カーソル(擬似視線)。
Claims (4)
- 移動体の周囲の画像を撮影する複数の撮像装置と、
上記複数の撮像装置が撮像した画像から全周囲画像を合成する統合画像生成装置と、
使用者の頭部へ装着でき使用者から見た視界の中心部に情景を見ることができる透過領域と、上記統合画像生成装置が生成した全周囲画像を表示するための透過領域の周りを囲む非透過領域とを有する表示装置と、
上記使用者の頭部の動きを検出する頭部動作検出装置と、
を備え、
上記表示装置は、上記頭部動作検出装置により検出される上記使用者の頭部の動き情報に基いて、上記非透過領域に表示される全周囲画像をスクロールさせる処理を行う視界支援装置。 - 移動体の周囲の画像を撮影する複数の撮像装置と、
上記複数の撮像装置が撮像した画像から全周囲画像を合成する統合画像生成装置と、
使用者の頭部へ装着でき使用者から見た視界の中心部に情景を見ることができる透過領域と、上記統合画像生成装置が生成した全周囲画像を表示するための透過領域の周りを囲む非透過領域を有する表示装置と、
上記使用者の眼球の動きを検出する眼球動作検出装置と、
を備え、
上記表示装置は、上記眼球動作検出装置により検出される上記使用者の眼球の動き情報に基いて、上記非透過領域に表示される全周囲画像をスクロールさせる処理を行う視界支援装置。 - 移動体の周囲の画像を撮影する複数の撮像装置と、
上記複数の撮像装置が撮像した画像から全周囲画像を合成する統合画像生成装置と、
使用者の頭部へ装着でき使用者から見た視界の中心部に情景を見ることができる透過領域と、上記統合画像生成装置が生成した全周囲画像を表示するための透過領域の周りを囲む非透過領域を有する表示装置と、
上記使用者の視線を模擬するカーソル表示部とを備え、
上記表示装置は、上記カーソル表示部により検出される上記カーソルの位置情報に基いて、上記非透過領域に表示される全周囲画像をスクロールさせる処理を行う視界支援装置。 - 使用者毎の固有情報を記憶する使用者情報記憶装置を備えたことを特徴とする請求項1〜請求項3のいずれかに記載の視界支援装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010060735A JP2011197736A (ja) | 2010-03-17 | 2010-03-17 | 視界支援装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010060735A JP2011197736A (ja) | 2010-03-17 | 2010-03-17 | 視界支援装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011197736A true JP2011197736A (ja) | 2011-10-06 |
Family
ID=44875912
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010060735A Pending JP2011197736A (ja) | 2010-03-17 | 2010-03-17 | 視界支援装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011197736A (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104133593A (zh) * | 2014-08-06 | 2014-11-05 | 北京行云时空科技有限公司 | 一种基于体感的文字输入***及方法 |
CN104166466A (zh) * | 2014-09-17 | 2014-11-26 | 北京行云时空科技有限公司 | 一种带辅助控制的体感操控***及方法 |
JP2017054201A (ja) * | 2015-09-07 | 2017-03-16 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置および画像生成方法 |
JP2019519968A (ja) * | 2016-05-02 | 2019-07-11 | ホアウェイ・テクノロジーズ・カンパニー・リミテッド | ヘッドマウントディスプレイコンテンツの撮影および共有 |
KR20200027247A (ko) * | 2018-09-04 | 2020-03-12 | 국방과학연구소 | 헬멧 및 통합처리기를 포함하는 시스템 및 그 동작 방법 |
JP2021010101A (ja) * | 2019-07-01 | 2021-01-28 | 株式会社日立製作所 | 遠隔作業支援システム |
-
2010
- 2010-03-17 JP JP2010060735A patent/JP2011197736A/ja active Pending
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104133593A (zh) * | 2014-08-06 | 2014-11-05 | 北京行云时空科技有限公司 | 一种基于体感的文字输入***及方法 |
CN104166466A (zh) * | 2014-09-17 | 2014-11-26 | 北京行云时空科技有限公司 | 一种带辅助控制的体感操控***及方法 |
JP2017054201A (ja) * | 2015-09-07 | 2017-03-16 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置および画像生成方法 |
US10627628B2 (en) | 2015-09-07 | 2020-04-21 | Sony Interactive Entertainment Inc. | Information processing apparatus and image generating method |
JP2019519968A (ja) * | 2016-05-02 | 2019-07-11 | ホアウェイ・テクノロジーズ・カンパニー・リミテッド | ヘッドマウントディスプレイコンテンツの撮影および共有 |
KR20200027247A (ko) * | 2018-09-04 | 2020-03-12 | 국방과학연구소 | 헬멧 및 통합처리기를 포함하는 시스템 및 그 동작 방법 |
KR102122506B1 (ko) * | 2018-09-04 | 2020-06-12 | 국방과학연구소 | 헬멧 및 통합처리기를 포함하는 시스템 및 그 동작 방법 |
JP2021010101A (ja) * | 2019-07-01 | 2021-01-28 | 株式会社日立製作所 | 遠隔作業支援システム |
JP7372061B2 (ja) | 2019-07-01 | 2023-10-31 | 株式会社日立製作所 | 遠隔作業支援システム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10114466B2 (en) | Methods and systems for hands-free browsing in a wearable computing device | |
US10032429B2 (en) | Device control utilizing optical flow | |
US9213185B1 (en) | Display scaling based on movement of a head-mounted display | |
US10061992B2 (en) | Image display system | |
US20120050144A1 (en) | Wearable augmented reality computing apparatus | |
CN111602082B (zh) | 用于包括传感器集成电路的头戴式显示器的位置跟踪*** | |
US20170186236A1 (en) | Image display device, image display method, and computer program | |
US20130241805A1 (en) | Using Convergence Angle to Select Among Different UI Elements | |
US20130021374A1 (en) | Manipulating And Displaying An Image On A Wearable Computing System | |
US20130176533A1 (en) | Structured Light for Eye-Tracking | |
JP2011197736A (ja) | 視界支援装置 | |
JP5869712B1 (ja) | 没入型仮想空間に実空間のユーザの周辺環境を提示するためのヘッドマウント・ディスプレイ・システムおよびコンピュータ・プログラム | |
CN111630477A (zh) | 提供增强现实服务的设备及其操作方法 | |
US11487354B2 (en) | Information processing apparatus, information processing method, and program | |
KR20220148921A (ko) | 근육 센서들을 사용하여 안면 표정을 결정하는 안경류 | |
JP2018142857A (ja) | 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法 | |
WO2013179426A1 (ja) | 表示装置、ヘッドマウントディスプレイ、表示方法及び表示プログラム、並びに記録媒体 | |
EP3807745B1 (en) | Pinning virtual reality passthrough regions to real-world locations | |
US20160109703A1 (en) | Head mounted display, method for controlling head mounted display, and computer program | |
KR20220024906A (ko) | 연속 카메라 캡처를 위한 듀얼 카메라들의 활용 | |
US10885819B1 (en) | In-vehicle augmented reality system | |
JP2019109850A (ja) | 透過型表示装置、表示制御方法、およびコンピュータープログラム | |
JP2016082411A (ja) | ヘッドマウントディスプレイ、画像表示方法及びプログラム | |
TW201939110A (zh) | 擴增實境顯示系統及其顯示方法 | |
JP2018067773A (ja) | 撮像装置とその制御方法、プログラム及び記憶媒体 |