JP6079614B2 - 画像表示装置及び画像表示方法 - Google Patents

画像表示装置及び画像表示方法 Download PDF

Info

Publication number
JP6079614B2
JP6079614B2 JP2013262926A JP2013262926A JP6079614B2 JP 6079614 B2 JP6079614 B2 JP 6079614B2 JP 2013262926 A JP2013262926 A JP 2013262926A JP 2013262926 A JP2013262926 A JP 2013262926A JP 6079614 B2 JP6079614 B2 JP 6079614B2
Authority
JP
Japan
Prior art keywords
event
unit
importance
image
image display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013262926A
Other languages
English (en)
Other versions
JP2015118332A (ja
Inventor
今 孝安
孝安 今
河本 献太
献太 河本
山本 祐輝
祐輝 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2013262926A priority Critical patent/JP6079614B2/ja
Priority to CN201480046371.1A priority patent/CN105474302B/zh
Priority to PCT/JP2014/005651 priority patent/WO2015092968A1/en
Priority to EP14805368.9A priority patent/EP3030954A1/en
Priority to US14/911,331 priority patent/US9964766B2/en
Publication of JP2015118332A publication Critical patent/JP2015118332A/ja
Application granted granted Critical
Publication of JP6079614B2 publication Critical patent/JP6079614B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/001Arbitration of resources in a display system, e.g. control of access to frame buffer by video controller and/or main processor
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/25Image signal generators using stereoscopic image cameras using two or more image sensors with different characteristics other than in their location or field of view, e.g. having different resolutions or colour pickup characteristics; using image signals from one sensor to control the characteristics of another sensor

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Optics & Photonics (AREA)
  • Computer Hardware Design (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本明細書で開示する技術は、頭部や顔部に装着して画像の視聴に利用される画像表示装置及び画像表示方法に関する。
頭部又は顔部に装着して画像の視聴に利用される画像表示装置、すなわち、ヘッド・マウント・ディスプレイが知られている。ヘッド・マウント・ディスプレイは、例えば左右の眼毎に画像表示部が配置され、虚像光学系により表示画像の拡大虚像を形成することで、ユーザーは臨場感のある画像を観察することができる。ヘッド・マウント・ディスプレイの人気は極めて高い。今後量産が進めば、携帯電話やスマートフォン、携帯ゲーム機のように普及し、1人が1台のヘッド・マウント・ディスプレイを所持するようになるかもしれない。
ヘッド・マウント・ディスプレイは、左右の眼の表示部として、例えば液晶や有機EL(Electro−Luminescence)素子などからなる高解像度の表示パネルを装備する。また、ヘッド・マウント・ディスプレイを、遮光性のタイプと透過性のタイプに分類することもできる。遮光性のヘッド・マウント・ディスプレイは、頭部に装着した際に、ユーザーの眼を直接覆うように構成され、画像視聴時に没入感が増す。虚像光学系を用いて表示画面を拡大投影して、適当な画角となる拡大虚像としてユーザーに観察させるとともに、ヘッドフォンで多チャンネルを再現すれば、映画館で視聴するような臨場感を再現することができる(例えば、特許文献1を参照のこと)。一方、透過性のヘッド・マウント・ディスプレイの場合、ユーザーが頭部に装着して画像を表示している間も、画像越しに外景を眺める(すなわち、シースルー)ことができる(例えば、特許文献2を参照のこと)。
遮光性並びに透過性のいずれのタイプにせよ、ヘッド・マウント・ディスプレイは、装着したユーザーを仮想世界に引き込む。このため、ユーザーの視覚や聴覚は外界に対する反応が遅くなることが懸念される。
例えば、リモコンに備えてある緊急用釦が押されると映像を停止する機能を備えた、頭部に装着できる構造の視覚装置について提案がなされている(例えば、特許文献3を参照のこと)。しかしながら、このような視覚装置のユーザーは、自ら緊急用釦を押して映像を停止すべきかどうかを判断しなければならない。すなわち、ユーザーは、映像を視聴中も、外界で何が起きているかを気にしなければならず、現実世界からの干渉を受けて、視覚装置が表示する仮想世界に没入する度合いが低くなってしまう。また、緊急用釦を押して映像を停止して、外界を観察しても、たいして重要な用事ではないこともあり、視聴の妨げになる。
また、自動車の乗員が顔面に装着して使用し、自動車の緊急状態を検出する手段であり、自動車の移動中に急ブレーキが踏まれたり、急ハンドルが切られたり、自動車が追突或いは衝突等して乗員の姿勢が不安定或いは危険となる状態を緊急状態として検出して、外界が見えるようにする装着型表示装置について提案がなされている(例えば、特許文献4を参照のこと)。
また、使用者の顔面に装着して使用され、所定のセンサーを装備させ、急激な動き又は外的要因による衝撃若しくは音によって瞬時に遮蔽部を開にして外界が見えるようにする映像表示装置について提案がなされている(例えば、特許文献5を参照のこと)。
本明細書で開示する技術の目的は、頭部や顔部に装着して画像の視聴に利用される、優れた画像表示装置及び画像表示方法を提供することにある。
本明細書で開示する技術のさらなる目的は、装着したユーザーが表示画像を視聴して仮想世界に没入できるとともに、視聴中も現実世界で起きた事象に適切に対応することができる、優れた画像表示装置及び画像表示方法を提供することにある。
本願は、上記課題を参酌してなされたものであり、請求項1に記載の技術は、
画像を表示する画像表示部と、
現実世界で発生する事象を認識する事象認識部と、
事象の重要度を判定する重要度判定部と、
重要度に対応した処理を実行する対応処理部と、
を具備する、頭部又は顔部に装着される画像表示装置である。
本願の請求項2に記載の技術によれば、請求項1に記載の画像表示装置は、現実世界における事象を検出するセンサー部をさらに備えている。そして、前記事象認識部は、前記センサー部の検出結果に基づいて事象を認識するように構成されている。
本願の請求項3に記載の技術によれば、請求項1に記載の画像表示装置は、現実世界を撮影する撮影部をさらに備えている。そして、前記事象認識部は、前記撮影部による撮影画像に基づいて事象を認識するように構成されている。
本願の請求項4に記載の技術によれば、請求項3に記載の画像表示装置の前記事象認識部は、撮影画像を顔認識して、近付いてくる人物を事象として認識するように構成されている。
本願の請求項5に記載の技術によれば、請求項1に記載の画像表示装置は、現実世界の音声を入力する音声入力部をさらに備えている。そして、前記事象認識部は、前記音声入力部から入力された音声に基づいて事象を認識するように構成されている。
本願の請求項6に記載の技術によれば、請求項5に記載の画像表示装置の前記事象認識部は、入力された音声を音声認識して、近隣にいる人物を事象として認識するように構成されている。
本願の請求項7に記載の技術によれば、請求項1に記載の画像表示装置は、周囲環境の情報を取得する環境情報取得部をさらに備えている。そして、前記事象認識部は、周囲環境の情報に基づいて事象を認識するように構成されている。
本願の請求項8に記載の技術によれば、請求項1に記載の画像表示装置の前記重要度判定部は、前記画像表示装置を頭部又は顔部に装着するユーザーと認識された事象との関係に基づいて、事象の重要度を判定するように構成されている。
本願の請求項9に記載の技術によれば、請求項4又は6のいずれかに記載の画像表示装置の前記重要度判定部は、前記画像表示装置を頭部又は顔部に装着するユーザーと認識された人物との人間関係に基づいて、事象の重要度を判定するように構成されている。
本願の請求項10に記載の技術によれば、請求項1に記載の画像表示装置の前記重要度判定部は、認識された事象の性質に基づいて重要度を判定するように構成されている。
本願の請求項11に記載の技術によれば、請求項1に記載の画像表示装置の前記重要度判定部は、所定のデータベースを参照して、認識された事象の重要度を判定するように構成されている。
本願の請求項12に記載の技術によれば、請求項1に記載の画像表示装置の前記重要度判定部は、前記画像表示装置を頭部又は顔部に装着するユーザーが決めた基準に基づいて、認識された事象の重要度を判定するように構成されている。
本願の請求項13に記載の技術によれば、請求項1に記載の画像表示装置の前記重要度判定部は、事象として移動する物体が認識されたときに、物体の移動に基づいて、認識された事象の重要度を判定するように構成されている。
本願の請求項14に記載の技術によれば、請求項1に記載の画像表示装置の前記対応処理部は、事象の重要度に基づいて、前記画像表示部の再生コンテンツの画像の表示を制御するように構成されている。
本願の請求項15に記載の技術によれば、請求項14に記載の画像表示装置は、現実世界を撮影する撮影部をさらに備えている。そして、前記対応処理部は、事象の重要度に基づいて、前記画像表示部で再生コンテンツの画像と前記撮影部の撮影画像の表示を制御するように構成されている。
本願の請求項16に記載の技術によれば、請求項15に記載の画像表示装置の前記対応処理部は、事象の重要度に基づいて、再生コンテンツの画像の表示を停止して撮影画像の表示に切り替え、再生コンテンツの画像と撮影画像を所定の割合で混合し、又は、再生コンテンツの画像を表示し続けるように構成されている。
本願の請求項17に記載の技術によれば、請求項1に記載の画像表示装置は、再生コンテンツの音声を出力する音声出力部をさらに備えている。そして、前記対応処理部は、事象の重要度に基づいて、前記音声出力部からの音声出力を制御するように構成されている。
本願の請求項18に記載の技術によれば、請求項1に記載の画像表示装置は、前記画像表示装置を頭部又は顔部に装着するユーザーの前記画像表示部で表示する再生コンテンツに対する没入度を判定する没入度判定部をさらに備えている。そして、前記重要度判定部は、没入度を考慮して事象の重要度を判定するように構成されている。
本願の請求項19に記載の技術によれば、請求項18に記載の画像表示装置の前記重要度判定部は、没入度が高いときには事象の重要度を抑制し、没入度が低いときには事象の重要度をエンハンスするように構成されている。
また、本願の請求項20に記載の技術は、
現実世界で発生する事象を認識する事象認識ステップと、
事象の重要度を判定する重要度判定ステップと、
重要度に対応して、頭部又は顔部に装着された画像表示部の画像の表示を制御する対応処理ステップと、
を有する画像表示方法である。
本明細書で開示する技術によれば、装着したユーザーが表示画像を視聴して仮想世界に没入できるとともに、視聴中も現実世界で起きた事象に適切に対応することができる、優れた画像表示装置及び画像表示方法を提供することができる。
本明細書で開示する技術を適用した画像表示装置は、各種のセンサーなどを用いて現実世界で起きている事象をモニターし、事象の重要度に応じてユーザーに通知することができる。したがって、ユーザーは、表示画像を視聴中も、重要度の高い事象には迅速に対応することができるとともに、重要度の低い事象のために視聴が遮られることはなく、表示画像が提供する仮想世界に没入して十分楽しむことができる。
なお、本明細書に記載された効果は、あくまでも例示であり、本発明の効果はこれに限定されるものではない。また、本発明が、上記の効果以外に、さらに付加的な効果を奏する場合もある。
本明細書で開示する技術のさらに他の目的、特徴や利点は、後述する実施形態や添付する図面に基づくより詳細な説明によって明らかになるであろう。
図1は、ヘッド・マウント・ディスプレイ100を頭部に装着しているユーザーを正面から眺めた様子を示した図である。 図2は、図1に示したヘッド・マウント・ディスプレイ100を装着したユーザーを上方から眺めた様子を示した図である。 図3は、ヘッド・マウント・ディスプレイ100の内部構成例を示した図である。 図4は、ヘッド・マウント・ディスプレイ100を装着したユーザーが現実世界に適切に対応できるようにするための機能的構成(第1の実施例)を模式的に示した図である。 図5は、ヘッド・マウント・ディスプレイ100がユーザーに対して現実世界で発生している事象を通知するための処理手順(第1の実施例)を示したフローチャートである。 図6は、ヘッド・マウント・ディスプレイ100を装着したユーザーが現実世界に適切に対応できるようにするための機能的構成(第2の実施例)を模式的に示した図である。 図7は、ヘッド・マウント・ディスプレイ100がユーザーに対して現実世界で発生している事象を通知するための処理手順(第2の実施例)を示したフローチャートである 図8は、仮想世界の画像802を表示する親画面に、現実世界(街角)のビデオ・シースルー画像801を子画面として表示している様子を示した図である。 図9は、現実世界(街角)のビデオ・シースルー画像901を表示する親画面に、仮想世界の画像902を子画面として表示している様子を示した図である。 図10は、現実世界(街角)のビデオ・シースルー画像1001を画面右半分に表示するとともに、仮想世界の画像1002を画面左半分に表示した様子を示した図である。 図11は、両眼式のヘッド・マウント・ディスプレイ100の左眼に現実世界(街角)の画像1101をビデオ・シースルー表示するとともに、右眼に仮想世界の画像1102を表示した様子を示した図である。
以下、図面を参照しながら本明細書で開示する技術の実施形態について詳細に説明する。
図1には、本明細書で開示する技術を適用したヘッド・マウント・ディスプレイ100を頭部に装着しているユーザーを正面から眺めた様子を示している。
ヘッド・マウント・ディスプレイ100は、ユーザーが頭部又は顔部に装着した際にユーザーの眼を直接覆い、画像視聴中のユーザーに没入感を与えることができる。また、シースルーのタイプとは相違し、ヘッド・マウント・ディスプレイ100を装着したユーザーは現実世界の風景を直接眺めることはできない。但し、ユーザーの視線方向の風景を撮影する外側カメラ312を装備し、その撮像画像を表示することにより、ユーザーは間接的に現実世界の風景を眺める(すなわち、ビデオ・シースルーで風景を表示する)ことができる。勿論、ビデオ・シースルー画像に対し、AR(Augmented Reality:拡張現実感)画像などの仮想的な表示画像を重ね合わせて見せることができる。また、表示画像は、外側(すなわち他人)からは見えないので、情報表示に際してプライバシーが守られ易い。
図1に示すヘッド・マウント・ディスプレイ100は、帽子形状に類似した構造体であり、装着したユーザーの左右の眼を直接覆うように構成されている。ヘッド・マウント・ディスプレイ100本体の内側の左右の眼に対向する位置には、ユーザーが観察する表示パネル(図1では図示しない)が配設されている。表示パネルは、例えば有機EL素子や液晶ディスプレイなどのマイクロ・ディスプレイや、網膜直描ディスプレイなどのレーザー走査方式ディスプレイで構成される。
ヘッド・マウント・ディスプレイ100本体前面のほぼ中央には、周囲画像(ユーザーの視界)入力用の外側カメラ312が設置されている。また、ヘッド・マウント・ディスプレイ100本体の左右の両端付近にそれぞれマイクロフォン103L、103Rが設置されている。左右ほぼ対称的にマイクロフォン103L、103Rを持つことで、中央に定位した音声(ユーザーの声)だけを認識することで、周囲の雑音や他人の話声と分離することができ、例えば音声入力による操作時の誤動作を防止することができる。
また、ヘッド・マウント・ディスプレイ100本体の外側には、ユーザーが指先などを使ってタッチ入力することができるタッチパネル315が配設されている。図示の例では、左右一対のタッチパネル315を備えているが、単一又は3以上のタッチパネル315を備えていてもよい。
図2には、図1に示したヘッド・マウント・ディスプレイ100を装着したユーザーを上方から眺めた様子を示している。図示のヘッド・マウント・ディスプレイ100は、ユーザーの顔面と対向する側面に、左眼用及び右眼用の表示パネル104L、104Rを持つ。表示パネル104L、104Rは、例えば有機EL素子や液晶ディスプレイなどのマイクロ・ディスプレイや網膜直描ディスプレイなどのレーザー走査方式ディスプレイで構成される。表示パネル104L、104Rの表示画像は、虚像光学部101L、101Rを通過すると拡大虚像としてユーザーに観察される。また、眼の高さや眼幅にはユーザー毎に個人差があるため、左右の各表示系と装着したユーザーの眼とを位置合わせする必要がある。図2に示す例では、右眼用の表示パネル104Rと左眼用の表示パネル104Lの間に眼幅調整機構105を装備している。
図3には、ヘッド・マウント・ディスプレイ100の内部構成例を示している。以下、各部について説明する。
制御部301は、ROM(Read Only Memory)301AやRAM(Random Access Memory)301Bを備えている。ROM301A内には、制御部301で実行するプログラム・コードや各種データを格納している。制御部301は、RAM301Bへロードしたプログラムを実行することで、画像の表示制御を始め、ヘッド・マウント・ディスプレイ100全体の動作を統括的にコントロールする。ROM301Aに格納するプログラムやデータとして、動画像コンテンツの再生など画像の表示制御プログラムや、表示画像を視聴中のユーザーに現実世界とのコミュニケーションを可能にするコミュニケーション制御プログラム、当該ヘッド・マウント・ディスプレイ100に固有の識別情報、当該ヘッド・マウント・ディスプレイ100を使用するユーザーのユーザー属性情報などを挙げることができる。
入力操作部302は、キーやボタン、スイッチなど、ユーザーが入力操作を行なう1以上の操作子(いずれも図示しない)を備え、操作子を介したユーザーの指示を受け付けて、制御部301に出力する。また、入力操作部302は、リモコン受信部303で受信したリモコン・コマンドからなるユーザーの指示を受け付けて、制御部301に出力する。また、入力操作部302は、ヘッド・マウント・ディスプレイ100本体の外側に配設されているタッチパネル315に対してユーザーが指先でタッチ操作を行なうと、タッチされた指先位置の座標データなどの入力情報を制御部301に出力する。
状態情報取得部304は、当該ヘッド・マウント・ディスプレイ100本体、又は当該ヘッド・マウント・ディスプレイ100を装着したユーザーの状態情報を取得する機能モジュールである。状態情報取得部304は、自ら状態情報を検出するための各種センサーを装備していてもよいし、これらのセンサー類の一部又は全部を備えた外部機器(例えば、ユーザーが身に付けているスマートフォンや腕時計、その他の多機能端末)から通信部305(後述)を介して状態情報を取得するようにしてもよい。
状態情報取得部304は、例えばユーザーの頭部の位置や姿勢や姿勢の情報を取得する。位置姿勢情報の取得のため、状態情報取得部304は、ジャイロ・センサー、加速度センサー、GPS(Global Positioning System)センサー、地磁気センサー、ドップラー・センサー、赤外線センサー、電波強度センサーなどのいずれか1つ、又は、各センサーの長所及び短所を考慮して2以上のセンサーの組み合わせを備えていてもよい。また、状態情報取得部304は、位置姿勢情報の取得に、携帯電話基地局情報やPlaceEngine(登録商標)情報(無線LANアクセスポイントからの電測情報)など、各種インフラストラクチャーから提供される情報を組み合わせて用いるようにしてもよい。
また、状態情報取得部304は、当該ヘッド・マウント・ディスプレイ100を装着したユーザーの状態情報として、例えば、ユーザーの作業状態(ヘッド・マウント・ディスプレイ100の装着の有無)や、ユーザーの行動状態(静止、歩行、走行などの移動状態、手や指先によるジェスチャー、瞼の開閉状態、視線方向、瞳孔の大小)、精神状態(ユーザーが表示画像を観察中に没入しているかなど)、さらには生理状態を取得する。また、状態情報取得部304は、これらの状態情報をユーザーから取得するために、外側カメラ312や、機械スイッチなどからなる装着センサー、ユーザーの顔を撮影する内側カメラ、ジャイロ・センサー、加速度センサー、速度センサー、圧力センサー、体温又は気温を検知する温度センサー、発汗センサー、脈拍センサー、筋電位センサー、眼電位センサー、脳波センサー、呼気センサー、ガス・イオン濃度センサーなどの各種の状態センサー、タイマー(いずれも図示しない)を備えていてもよい。
環境情報取得部316は、当該ヘッド・マウント・ディスプレイ100本体、又は当該ヘッド・マウント・ディスプレイ100を装着したユーザーを取り巻く環境に関する情報を取得する機能モジュールである。ここで言う環境に関する情報として、音、風量、気温、気圧、雰囲気(煙、濃霧や、当該ヘッド・マウント・ディスプレイ100又はユーザーが浴びる電磁波(紫外線、ブルーライト、電波)、熱線(赤外線)、放射線、大気中の一酸化炭素や二酸化炭素、酸素、窒素化合物(ニコチン)、大気中を漂う窒素酸化物(NOx)や炭化水素(揮発性有機化合物(VOC:Volatile Organic Compounds)あるいはこれらが紫外線の影響により光化学反応を起こして生成された光化学スモッグ、粒子状物質、花粉、ハウスダストなどの粉塵、アスベストなどの有害化学物質)、その他の環境因子を挙げることができる。環境情報取得部316は、環境情報を検出するために、音センサーや風量センサーを始めとして各種環境センサーを装備していてもよい。前述したマイクロフォン103L、103Rや外側カメラ312を環境センサーに含めることもできる。あるいは、環境情報取得部316は、これらのセンサー類の一部又は全部を備えた外部機器(例えば、ユーザーが身に付けているスマートフォンや腕時計、その他の多機能端末)から通信部305(後述)を介して環境情報を取得するようにしてもよい。
外側カメラ312は、例えばヘッド・マウント・ディスプレイ100本体前面のほぼ中央に配置され(図2を参照のこと)、周囲画像を撮影することができる。ユーザーは、入力操作部302の操作、内側カメラや筋電位センサーなどで認識される瞳孔の大小や音声入力を通じて、外側カメラ312のズームを調整することができるものとする。また、状態情報取得部304で取得したユーザーの視線方向に合わせて外側カメラ312のパン、チルト、ロール方向の姿勢制御を行なうことで、外側カメラ312でユーザーの自分目線の画像すなわちユーザーの視線方向の画像を撮影することができる。外側カメラ312の撮影画像を、表示部309に表示出力することができ、また、撮影画像を通信部305から送信したり記憶部306に保存したりすることもできる。
外側カメラ312は、視差情報を利用して、周囲画像の3次元情報を取得できるように、外側カメラ312を複数台のカメラで構成することがより好ましい。また、1台のカメラでも、SLAM(Simultaneous Localization and Mapping)画像認識を用いて、カメラを移動させながら撮影を行ない、時間的に前後する複数のフレーム画像を用いて視差情報を算出し(例えば、特許文献6を参照のこと)、算出した視差情報から周囲画像の3次元情報を取得することもできる。
外側カメラ312は、3次元情報を取得できることから、距離センサーとしても利用することができる。あるいは、例えば物体からの反射信号を検出するPSD(Position Sensitive Detector)など安価なデバイスからなる距離センサーを外側カメラ312と併用するようにしてもよい。外側カメラ312や距離センサーは、ヘッド・マウント・ディスプレイ100を装着するユーザーの身***置、姿勢、形状を検出するために使用することができる。
通信部305は、外部機器との通信処理、並びに通信信号の変復調並びに符号化復号処理を行なう。外部機器として、ユーザーがヘッド・マウント・ディスプレイ100を使用する際の視聴コンテンツを供給するコンテンツ再生装置(ブルーレイ・ディスク又はDVDプレイヤー)や、ストリーミング・サーバーを挙げることができる。また、制御部301は、外部機器への送信データを通信部305から送出する。
通信部305の構成は任意である。例えば、通信相手となる外部機器との送受信動作に使用する通信方式に応じて、通信部305を構成することができる。通信方式は、有線、無線のいずれの形態であってもよい。ここで言う通信規格として、MHL(Mobile High−definition Link)やUSB(Universal Serial Bus)、HDMI(登録商標)(High Definition Multimedia Interface)、Wi−Fi(登録商標)(Wireless Fidelity)、Bluetooth(登録商標)通信やBLE(Bluetooth(登録商標) Low Energy)通信、ANTなどの超低消費電力無線通信、IEEE802.11sなどで規格化されたメッシュ・ネットワークなどを挙げることができる。あるいは、通信部305は、例えばW−CDMA(Wideband Code Division Multiple Access)、LTE(Long Term Evolution)などの標準規格に従って動作する、セルラー無線送受信機であってもよい。
記憶部306は、SSD(Solid State Drive)などで構成される大容量記憶装置である。記憶部306は、制御部301で実行するアプリケーション・プログラムや各種データを記憶している。例えば、ユーザーがヘッド・マウント・ディスプレイ100で視聴するコンテンツを記憶部306に格納する。
画像処理部307は、制御部301から出力される画像信号に対して画質補正などの信号処理をさらに行なうとともに、表示部309の画面に合わせた解像度に変換する。そして、表示駆動部308は、表示部309の画素を行毎に順次選択するとともに線順次走査して、信号処理された画像信号に基づく画素信号を供給する。
表示部309は、例えば有機EL(Electro−Luminescence)素子や液晶ディスプレイなどのマイクロ・ディスプレイ、あるいは、網膜直描ディスプレイなどのレーザー走査方式ディスプレイで構成される表示パネル104L、104R(前述)を有する。虚像光学部310は、表示部309の表示画像を拡大投影して、ユーザーには拡大虚像として観察させる。なお、表示部309で出力する表示画像として、コンテンツ再生装置(ブルーレイ・ディスク又はDVDプレイヤー)やストリーミング・サーバーから供給される商用コンテンツといった仮想世界の画像や、外側カメラ312で撮影する現実世界の画像を挙げることができる。
また、ヘッド・マウント・ディスプレイ100の任意の構成要素として、外側表示部311を備えていてもよい。外側表示部311は、ヘッド・マウント・ディスプレイ100を装着していない外部の者が観察できる外側画像を表示する。外側画像は、表示部309に表示する画像(すなわち、内側画像)と同じであっても、異なる画像であってもよい。画像処理部307は外側画像の画質補正などの信号補正も行なう。また、表示駆動部308は、外側表示部311の画素を行毎に順次選択するとともに線順次走査して、信号処理された画像信号に基づく画素信号を供給する。
音声処理部313は、制御部301から出力される音声信号に対して音質補正や音声増幅、入力された音声信号などの信号処理をさらに行なう。そして、音声入出力部314は、音声処理後の音声を外部出力、並びにマイクロフォン103L、103R(前述)からの音声入力を行なう。
図1〜図2に示したようなヘッド・マウント・ディスプレイ100は、遮光性、すなわち、装着したユーザーの眼を覆う。そして、表示部309には、映画などの動画像コンテンツや、コンピューター・グラフィックスなどで表現された画像を表示する。虚像光学部310は、表示部309の表示画像を拡大投影して、適当な画角となる拡大虚像としてユーザーに観察させ、例えば映画館で視聴しているような臨場感を再現する。ユーザーは、表示部309に表示される仮想世界に没入体験することができる。
ヘッド・マウント・ディスプレイ100を装着したユーザーは、再生されたコンテンツの画像及び音声を視聴している状態では、外界からの情報が遮断される。ユーザーが再生コンテンツに没入できるという意味では好ましい状態である。コンテンツを楽しんでいるユーザーは、現実世界からの干渉を受けたくない。ところが、ユーザーが現実世界とのコミュニケーションできなくなってしまうことが懸念される。ユーザーの身体は現実世界に存在するにも拘らず、視覚や聴覚などの知覚が仮想世界を体験することになると、現実世界とのコミュニケーションはかなり難しくなる。現実世界で特定の人物が近付いてきたときには、その状況を知りたくなるが、ヘッド・マウント・ディスプレイ100を装着したままでは、ユーザーは対応することができない。また、ユーザーは、視覚や聴覚が仮想世界に向けられているので、没入時に現実世界の物体との接触や衝突などを感知して回避するのが難くなり、物理的損害を被る危険性がある。
勿論、図1、図2に示した遮光性のヘッド・マウント・ディスプレイ100ではなく、透過性のヘッド・マウント・ディスプレイにおいても、ユーザーは仮想世界にある程度は引き込まれるので、没入時に現実世界とのコミュニケーションの困難や物理的損害の危険性の問題は同様にある。
そこで、本明細書で開示する技術を適用したヘッド・マウント・ディスプレイ100は、表示部309で仮想世界の画像を表示している際に、現実世界で発生する事象をモニターし、発生した事象の重要度に応じて、ヘッド・マウント・ディスプレイ100で再生するコンテンツを視聴中のユーザーと現実世界とのコミュニケーションを制御するようにしている。したがって、ユーザーは、現実世界からの干渉を受けることなく、仮想世界に没入することができるとともに、必要に応じて現実世界とのコミュニケーションを行ない、現実世界で発生した重要な事象に適切に対処したり、現実世界の物体との衝突などによる物理的損害を回避したりすることができる。
図4には、ヘッド・マウント・ディスプレイ100を装着しコンテンツを視聴中すなわち仮想世界に没入しているユーザーが現実世界に適切に対応できるようにするための機能的構成を模式的に示している。図示のヘッド・マウント・ディスプレイ100は、事象認識部401と、重要度判定部402と、対応処理部403を備えている。これらの機能モジュール401〜403は、例えば制御部301で実行するアプリケーション・プログラムにより実現される。
事象認識部401は、状態情報取得部304、環境情報取得部316、外側カメラ312、音声入出力部314などからなるセンサーから信号を入力して、現実世界で起きている事象をリアルタイムで認識する。例えば、事象認識部401は、外側カメラ312の撮影画像を画像認識又は顔認識して、ユーザーに近づいてくる人物や動物、移動体などを特定する。あるいは、事象認識部401は、音声入出力部314から入力される音声を音声認識して、誰の声であるかを特定する。また、事象認識部401は、物体だけでなく、環境情報取得部316から入力される環境情報(例えば、異常な高温、煙感知など)などに基づいて、火災や地震、津波などの災害、交通事故などの事象も認識することができる。
重要度判定部402は、事象認識部401が認識した事象の重要度を判定する。例えば、事象認識部401が外側カメラ312の撮影画像から人物やペット、移動体などを特定する場合には、特定された人物や動物、物体の重要度を判定する。人物が認識された場合、重要度判別部402は、続柄や、職場の上司と部下などの人間関係に基づいて、重要度を判定する。また、動物が認識された場合、重要度判別部402は、自分のペットや家畜など自分との関係、あるいは獰猛で危険かなど性質に基づいて重要度を判定する。また、物体が認識された場合、重要度判別部402は、物体が自転車や自動車などの移動体か、移動体の進行方向にユーザーがいるか、テーブルや椅子など静止した物体がユーザーの進行方向に置いてあるかなどに基づいて重要度を判定する。また、火災などの災害や交通事故などの事象が認識された場合には、重要度判別部402は、事象が発生した場所がユーザーの進行方向に存在しているかどうかに基づいて重要度を判別する。
重要度判定部402は、続柄などの人間関係などに基づいて事象毎の重要度をあらかじめ規定したデータベース410を参照して、認識された事象の重要度を判定するようにしてもよい。データベース410は、ヘッド・マウント・ディスプレイ100内に配設してもよいし、インターネット上でクラウド技術を利用して提供されるサービスであってもよい。あるいは、ユーザーが人物毎の重要度をあらかじめ定義しておいてもよい(例えば、親又は子供なら重要度高、兄弟なら重要度中、他人なら重要度低、上司なら重要度高、部下なら重要度中)。
対応処理部403は、重要度判定部402が判定した重要度に対応する処理を実施して、再生コンテンツを視聴中のユーザーと現実世界とのコミュニケーションを行なわせる。対応処理部403は、重要度の高さに応じたコンテンツの再生制御を行なうことにより、コンテンツの視聴を適切に制限して、ユーザーが現実世界で発生している事象を視覚又は聴覚により知覚できるようにする。また、対応処理部403は、認識された事象の重要度が低いときには、コンテンツの視聴に制限を掛けないようにして、ユーザーが現実世界からの干渉を受けることなく仮想世界に没入できるようにする。
対応処理部403が実施する処理として、以下を挙げることができる。
(1)再生コンテンツの停止
(2)コンテンツの表示の制限
(3)コンテンツの音声の制限
(4)事象を無視
対応処理部403が再生コンテンツを完全に停止すると、ユーザーの視覚及び聴覚はともに仮想世界から現実世界に解放されて、ユーザーは現実世界と完全且つ迅速にコミュニケーションをとることができる。再生コンテンツを停止したときには、対応処理部403は、外側カメラ312で撮影される画像を表示部309に表示して、ユーザーは間接的に現実世界の風景を眺める(すなわち、ビデオ・シースルーで風景を表示する)ことができるようにする。また、対応処理部403は、状態情報取得部304で取得したユーザーの視線方向に合わせて外側カメラ312のパン、チルト、ロール方向の姿勢制御を行なうことで、外側カメラ312でユーザーの自分目線の画像すなわちユーザーの視線方向の画像を撮影する。対応処理部403は、認識された事象の重要度が最高レベルの場合には、再生コンテンツを完全に停止することが好ましい。
また、対応処理部403は、再生コンテンツの表示のみを制限することで、ユーザーの視覚の一部又は全部を仮想世界から現実世界に解放する。例えば、表示部312の表示画像を、コンテンツの再生画像から、外側カメラ312の撮影画像に切り替えて、ユーザーの視覚を仮想世界から現実世界に完全に解放する。あるいは、対応処理部403は、コンテンツの再生画像を外側カメラ312の撮影画像に完全に切り替えるのではなく、子画面として撮影画像を表示する、撮影画像を表示する画面の子画面としてコンテンツの再生画像を表示する、コンテンツの再生画像と外側カメラ312の撮影画像を混合して表示するなどして、ユーザーの視覚を仮想世界から部分的に解放して、現実世界とコミュニケーションできるようにする。
図8には、仮想世界の画像802を表示する親画面に、現実世界(街角)のビデオ・シースルー画像801を子画面として表示している様子を示している。対応処理部403は、事象の重要度に応じて、子画面801の大きさを調整するようにしてもよい。
また、図9には、現実世界(街角)のビデオ・シースルー画像901を表示する親画面に、仮想世界の画像902を子画面として表示している様子を示している。対応処理部403は、事象の重要度に応じて、子画面902の大きさを調整するようにしてもよい。
また、図10には、画面を左右に分割して、現実世界(街角)のビデオ・シースルー画像1001を画面右半分に表示するとともに、仮想世界の画像1002を画面左半分に表示した様子を示している。対応処理部403は、事象の重要度に応じて、ビデオ・シースルー画像1001と仮想世界の画像1002の境界を左右に移動させるようにしてもよい。
また、図11には、両眼式のヘッド・マウント・ディスプレイ100の左眼に現実世界(街角)の画像1101をビデオ・シースルー表示するとともに、右眼に仮想世界の画像1102を表示した様子を示している。対応処理部403は、事象の重要度に応じて、右眼の表示画像にも、所定のフレーム間隔で現実世界(街角)の画像1101を挿入し、又は、現実世界(街角)の画像1101を挿入するフレーム間隔を調整するようにしてもよい。
対応処理部403は、認識された事象の重要度に応じて、撮影画像の子画面を大きくする、コンテンツ再生画像の子画面を縮退する、撮影画像の混合比を高くするなどして、ユーザーの視覚を現実世界に解放する度合いを制御することが好ましい。あるいは、対応処理部403は、現実世界の撮影画像を表示する代わりに、認識された事象を表すアバターやアイコンなどを仮想世界の画像上に出現させて、ユーザーに事象を通知するようにしてもよい。
また、対応処理部403は、再生コンテンツの音声のみを制限することで、ユーザーの聴覚の一部又は全部を仮想世界から現実世界に解放する。例えば、音声入出力部314からの再生コンテンツの音声出力を停止したり、マイクロフォン103L、103Rからの入力音声に切り替えたりして、ユーザーの聴覚を仮想世界から現実世界に完全に解放する。あるいは、対応処理部403は、再生コンテンツの音声を完全に停止したり現実世界の音声と切り替えたりするのではなく、再生コンテンツの出力音声の音量を低下する、マイクロフォン103L、103Rからの入力音声の音量を増大するなどして、ユーザーの聴覚を仮想世界から部分的に解放して、現実世界とコミュニケーションできるようにする。対応処理部403は、認識された事象の重要度に応じて、ユーザーの聴覚を現実世界に解放する度合いを制御することが好ましい。あるいは、対応処理部403は、現実世界の音声を出力する代わりに、認識された事象を通知する音声メッセージを出力するようにしてもよい。
なお、対応処理部403が再生コンテンツの画像又は音声のいずれを制限するかは、発生した事象の種別によって切り替えてもよいし、ユーザーがいずれにするかを選択できるようにしてもよい。
また、対応処理部403は、認識された事象の重要度が最低レベルの場合には、ユーザーの視覚及び聴覚を現実世界に解放することなく、コンテンツの再生を継続する。これによって、ユーザーは、つまらない用事のために現実世界からの干渉を受けることなく、再生コンテンツに没入して楽しむことができる。
図5には、ヘッド・マウント・ディスプレイ100が、コンテンツを視聴中のユーザーに対して現実世界で発生している事象を通知するための処理手順をフローチャートの形式で示している。
ヘッド・マウント・ディスプレイ100においてコンテンツの再生を開始するとともに(ステップS501)、事象認識部401は、状態情報取得部304、環境情報取得部316、外側カメラ312、音声入出力部314などからなるセンサーから信号を入力して、現実世界をモニターし続ける(ステップS502)。
事象認識部401が、誰かが近づいてきたなど、現実世界で事象が発生したことを認識すると(ステップS503のYes)、認識結果を重要度判定部402に出力する。
重要度判定部402は、認識された事象の重要度を判定する(ステップS504)。重要度判定部402は、判定に際し、データベース410を活用してもよい。そして、対応処理部403は、判定された重要度に応じた対応処理を実行する。
ここで、事象の重要度が高いと判定された場合には、対応処理部403は、高重要度対応処理を実行する(ステップS505)。例えば、対応処理部403は、再生中のコンテンツを完全に停止して、ユーザーの視覚及び聴覚をともに仮想世界から現実世界に解放する。これによって、ユーザーは、現実世界と完全且つ迅速にコミュニケーションをとることが可能になる。
対応処理部403は、高重要度対応処理として、外側カメラ312で撮影される画像を表示部309に表示して、ユーザーは間接的に現実世界の風景を眺める(すなわち、ビデオ・シースルーで風景を表示する)ことができるようにする。また、対応処理部403は、状態情報取得部304で取得したユーザーの視線方向に合わせて外側カメラ312のパン、チルト、ロール方向の姿勢制御を行なうことで、外側カメラ312でユーザーの自分目線の画像すなわちユーザーの視線方向の画像を撮影する。
また、事象の重要度が中程度と判定された場合には、対応処理部403は、中重要度対応処理を実行する(ステップS506)。
対応処理部403は、中重要度対応処理として、再生コンテンツの表示のみを制限して、ユーザーの視覚の一部又は全部を仮想世界から現実世界に解放する。例えば、表示部312の表示画像を、コンテンツの再生画像から、外側カメラ312の撮影画像に切り替えて、ユーザーの視覚を仮想世界から現実世界に完全に解放する。また、対応処理部403は、コンテンツの再生画像を外側カメラ312の撮影画像に完全に切り替えるのではなく、子画面として撮影画像を表示する、撮影画像を表示する画面の子画面としてコンテンツの再生画像を表示する、コンテンツの再生画像と外側カメラ312の撮影画像を混合して表示するなどして、ユーザーの視覚を仮想世界から部分的に解放して、現実世界とコミュニケーションできるようにする。また、対応処理部403は、中重要度処理を段階的に行なうようにしてもよい。すなわち、重要度判定部402が中重要度を細かくレベル判定し、対応処理部403は、そのレベルに応じて、撮影画像の子画面を大きくする、コンテンツ再生画像の子画面を縮退する、撮影画像の混合比を高くするなどして、ユーザーの視覚を現実世界に解放する度合いを制御する。また、対応処理部403は、現実世界の撮影画像を表示する代わりに、認識された事象を表すアバターやアイコンなどを仮想世界の画像上に出現させて、ユーザーに事象を通知するようにしてもよい。
あるいは、対応処理部403は、中重要度対応処理として、再生コンテンツの音声のみを制限して、ユーザーの聴覚の一部又は全部を仮想世界から現実世界に解放する。例えば、音声入出力部314からの再生コンテンツの音声出力を停止したり、マイクロフォン103L、103Rからの入力音声に切り替えたりして、ユーザーの聴覚を仮想世界から現実世界に完全に解放する。また、対応処理部403は、中重要度処理を段階的に行なうようにしてもよい。すなわち、重要度判定部402が中重要度を細かくレベル判定し、対応処理部403は、そのレベルに応じて、また、対応処理部403は、再生コンテンツの出力音声の音量を低下する、マイクロフォン103L、103Rからの入力音声の音量を増大するなどして、ユーザーの聴覚を仮想世界から部分的に解放して、現実世界とコミュニケーションできるようにする。また、対応処理部403は、現実世界の音声を出力する代わりに、認識された事象を通知する音声メッセージを出力するようにしてもよい。
また、事象の重要度が低いと判定された場合には、対応処理部403は、低重要度対応処理を実行する(ステップS507)。例えば、対応処理部403は、ユーザーの視覚及び聴覚を現実世界に解放することなく、コンテンツの再生を継続する。これによって、ユーザーは、つまらない用事のために現実世界からの干渉を受けることなく、再生コンテンツに没入して楽しむことができる。また、重要度が低いと判定された事象が人の場合、外部の者は、ヘッド・マウント・ディスプレイ100を装着したユーザーが何故自分に気づかないのか、あるいは何故自分を相手にしないのか理由が不明で困惑することある。そこで、対応処理部403は、低重要度対応処理として、「今対応できない」などのメッセージを外側表示部311に表示したり、音声入出力部314から音声メッセージとして出力したりして、ヘッド・マウント・ディスプレイ100を装着していない外部の者に、ユーザーの非対応に理解を促すようにしてもよい。
対応処理部403は、高重要度対応処理(ステップS505)や、中重要度対応処理(ステップS506)において、再生コンテンツの出力を制限した後、所定期間が経過したことや、ユーザーが入力操作部302などを介してコンテンツ再生の復帰指示を行なったこと、事象認識部401が事象を認識しなくなったこと(若しくは、事象が終了したこと)に応じて、通常のコンテンツ再生を再開するようにする。
そして、コンテンツの再生が終了するまで(コンテンツの最後まで再生し終わることと、ユーザーが再生を停止させることを含む)(ステップS508のNo)、ステップS502に戻り、上記の処理を繰り返し実行する。
本実施例によれば、ヘッド・マウント・ディスプレイ100は現実世界で発生した事象に応じてコンテンツの再生を制御するので、ユーザーは、仮想世界と現実世界の間で自然なコミュニケーションをとることができる。
また、重要度判定部402において事象の重要度を判定するための基準をユーザーが自分の好みに応じて適切に設定することにより、ヘッド・マウント・ディスプレイ100でのコンテンツ再生の阻害を極力低減することができる。
また、重要度毎の対応処理において、ユーザーが現実世界とコミュニケーションをとる方法を、ユーザー自身が好みにより適切に設定することにより、快適にヘッド・マウント・ディスプレイ100を利用することができる。例えば、中重要度対応処理として、再生コンテンツの表示又は音声出力のいずれを制限して現実世界とコミュニケーションをとるかをユーザーが設定することができる。また、事象の通知をアバターやアイコンの表示により通知するか、音声メッセージにより通知するかを、ユーザーが選択することができる。
上述した第1の実施例では、事象認識部401が認識した事象自体の重要度のみに基づいて対応処理を実行していた。これに対し、第2の実施例では、ユーザーの状態をさらに考慮して、事象の重要度を判定するようにしている。
ユーザーの状態として、再生コンテンツに対するユーザーの没入度を挙げることができる。ユーザーが視聴中のコンテンツに没入していると、現実世界からの干渉を受けたくない。同じ人物が近付いてきても、ユーザーはコミュニケーションをとりたくない、邪魔されずにコンテンツを視聴し続けたいと思うであろう。逆に、ユーザーが視聴中のコンテンツに没入していない、あるいはコンテンツに飽きているときには、現実世界から干渉を受けても不快ではなく、むしろ気分転換になる。コンテンツに没入したくない人物であっても、没入度が低いときには、コンテンツの再生を制限して、コミュニケーションをとることが好ましい場合もある。
図6には、第2の実施例において、ヘッド・マウント・ディスプレイ100を装着したユーザーが現実世界に適切に対応できるようにするための機能的構成を模式的に示している。図示のヘッド・マウント・ディスプレイ100は、事象認識部601と、没入度判定部602と、重要度判定部603と、対応処理部604を備えている。これらの機能モジュール601〜604は、例えば制御部301で実行するアプリケーション・プログラムにより実現される。
事象認識部601は、状態情報取得部304、環境情報取得部316、外側カメラ312、音声入出力部314などからなるセンサーから信号を入力して、現実世界で起きている事象をリアルタイムで認識する。例えば、事象認識部401は、外側カメラ312の撮影画像を画像認識又は顔認識して、ユーザーに近づいてくる人物や動物、移動体などを特定する。あるいは、事象認識部601は、音声入出力部314から入力される音声を音声認識して、誰の声であるかを特定する。また、事象認識部401は、物体だけでなく、環境情報取得部316から入力される環境情報などに基づいて、火災や地震、津波などの災害、交通事故などの事象も認識する。
没入度判定部602は、状態情報取得部304から、体温、発汗、脈拍、筋電位、眼電位、脳波などのユーザーの状態を示す情報を入力して、ユーザーが再生コンテンツすなわち仮想世界にどの程度没入しているかを判定する。
重要度判定部603は、事象認識部601が認識した事象の重要度を、ユーザーの現在の没入度を考慮しながら判定する。重要度判定部603は、ユーザーの没入度が高いときに、事象の重要度を抑制し、ユーザーの没入度が低いときには、事象の重要度をエンハンスする。
例えば、ユーザーの没入度が高いときには、現実世界からの干渉を受けたくないという欲求を尊重して、よほどの同じ人物が出現しない限り、あるいは火災や事故など緊急に避難しなければならないような事象でない限り、同じ事象であっても重要度判定部402(第1の実施例の場合)よりも重要度を低く判定する。逆に、ユーザーの没入度が低いときには、同じ事象であっても重要度判定部402(第1の実施例の場合)よりも重要度を高く判定する。ユーザーは、コンテンツの視聴に退屈しているときには、現実世界から干渉を受けても不快ではなく、むしろ気分転換になる。コンテンツに没入したくない人物であっても、没入度が低いときには、コンテンツの再生を制限して、コミュニケーションをとることが好ましい場合もある。重要度判定部603は、続柄などの人間関係に基づいて事象毎の重要度をあらかじめ規定したデータベース610を参照して、認識された重要度を判定するようにしてもよい。
対応処理部604は、重要度判定部603が判定した重要度に対応する処理を実施して、再生コンテンツを視聴中のユーザーと現実世界とのコミュニケーションを行なわせる。対応処理部604は、重要度の高さに応じたコンテンツの再生制御を行なうことにより、コンテンツの視聴を適切に制限して、ユーザーが現実世界で発生している事象を視覚又は聴覚により知覚できるようにする。また、対応処理部604は、認識された事象の重要度が低いときには、コンテンツの視聴に制限を掛けないようにして、ユーザーが現実世界からの干渉を受けることなく仮想世界に没入できるようにする。対応処理部604が実施する処理として、以下を挙げることができる(同上)。
(1)再生コンテンツの停止
(2)コンテンツの表示の制限
(3)コンテンツの音声の制限
(4)事象を無視
図7には、ヘッド・マウント・ディスプレイ100が、コンテンツを視聴中のユーザーに対して現実世界で発生している事象を通知するための処理手順をフローチャートの形式で示している。
ヘッド・マウント・ディスプレイ100においてコンテンツの再生を開始すると(ステップS701)、事象認識部601は、状態情報取得部304、環境情報取得部316、外側カメラ312、音声入出力部314などからなるセンサーから信号を入力して、現実世界をモニターし続ける(ステップS702)。また、没入度判定部602は、状態情報取得部304から、体温、発汗、脈拍、筋電位、眼電位、脳波などのユーザーの状態を示す情報を入力して、ユーザーが再生コンテンツすなわち仮想世界にどの程度没入しているかをモニターし続ける(ステップS703)。
事象認識部601が、誰かが近づいてきたなど、現実世界で事象が発生したことを認識すると(ステップS704のYes)、重要度判定部603は、事象認識部601が認識した事象の重要度を、ユーザーの現在の没入度を考慮しながら判定する(ステップS705)。重要度判定部603は、判定に際し、データベース610を活用してもよい。そして、対応処理部604は、判定された重要度に応じた対応処理を実行する。
ここで、事象の重要度が高いと判定された場合には、対応処理部604は、高重要度対応処理を実行する(ステップS706)。例えば、対応処理部604は、再生中のコンテンツを完全に停止して、ユーザーの視覚及び聴覚をともに仮想世界から現実世界に解放する。これによって、ユーザーは、現実世界と完全且つ迅速にコミュニケーションをとることが可能になる。
対応処理部604は、高重要度対応処理として、外側カメラ312で撮影される画像を表示部309に表示して、ユーザーは間接的に現実世界の風景を眺める(すなわち、ビデオ・シースルーで風景を表示する)ことができるようにする。また、対応処理部604は、状態情報取得部304で取得したユーザーの視線方向に合わせて外側カメラ312のパン、チルト、ロール方向の姿勢制御を行なうことで、外側カメラ312でユーザーの自分目線の画像すなわちユーザーの視線方向の画像を撮影する。
また、事象の重要度が中程度と判定された場合には、対応処理部604は、中重要度対応処理を実行する(ステップS707)。
対応処理部604は、中重要度対応処理として、再生コンテンツの表示のみを制限して、ユーザーの視覚の一部又は全部を仮想世界から現実世界に解放する。例えば、表示部312の表示画像を、コンテンツの再生画像から、外側カメラ312の撮影画像に切り替えて、ユーザーの視覚を仮想世界から現実世界に完全に解放する。また、対応処理部604は、コンテンツの再生画像を外側カメラ312の撮影画像に完全に切り替えるのではなく、子画面として撮影画像を表示する、撮影画像を表示する画面の子画面としてコンテンツの再生画像を表示する、コンテンツの再生画像と外側カメラ312の撮影画像を混合して表示するなどして、ユーザーの視覚を仮想世界から部分的に解放して、現実世界とコミュニケーションできるようにする。また、対応処理部604は、中重要度処理を段階的に行なうようにしてもよい。すなわち、重要度判定部603が中重要度を細かくレベル判定し、対応処理部604は、そのレベルに応じて、撮影画像の子画面を大きくする、コンテンツ再生画像の子画面を縮退する、撮影画像の混合比を高くするなどして、ユーザーの視覚を現実世界に解放する度合いを制御する。また、対応処理部604は、現実世界の撮影画像を表示する代わりに、認識された事象を表すアバターやアイコンなどを仮想世界の画像上に出現させて、ユーザーに事象を通知するようにしてもよい。
あるいは、対応処理部604は、中重要度対応処理として、再生コンテンツの音声のみを制限して、ユーザーの聴覚の一部又は全部を仮想世界から現実世界に解放する。例えば、音声入出力部314からの再生コンテンツの音声出力を停止したり、マイクロフォン103L、103Rからの入力音声に切り替えたりして、ユーザーの聴覚を仮想世界から現実世界に完全に解放する。また、対応処理部604は、中重要度処理を段階的に行なうようにしてもよい。すなわち、重要度判定部603が中重要度を細かくレベル判定し、対応処理部604は、そのレベルに応じて、また、対応処理部604は、再生コンテンツの出力音声の音量を低下する、マイクロフォン103L、103Rからの入力音声の音量を増大するなどして、ユーザーの聴覚を仮想世界から部分的に解放して、現実世界とコミュニケーションできるようにする。また、対応処理部604は、現実世界の音声を出力する代わりに、認識された事象を通知する音声メッセージを出力するようにしてもよい。
また、事象の重要度が低いと判定された場合には、対応処理部604は、低重要度対応処理を実行する(ステップS708)。例えば、対応処理部604は、ユーザーの視覚及び聴覚を現実世界に解放することなく、コンテンツの再生を継続する。これによって、ユーザーは、つまらない用事のために現実世界からの干渉を受けることなく、再生コンテンツに没入して楽しむことができる。また、対応処理部604は、低重要度対応処理として、低重要度対応処理として、「今対応できない」などのメッセージを外側表示部311に表示したり、音声入出力部314から音声メッセージとして出力したりしてもよい。ヘッド・マウント・ディスプレイ100を装着していない外部の者は、画像又は音声のメッセージを通じて、ユーザーの非対応を理解することができる。
対応処理部604は、高重要度対応処理(ステップS706)や、中重要度対応処理(ステップS707)において、再生コンテンツの出力を制限した後、所定期間が経過したことや、ユーザーが入力操作部302などを介してコンテンツ再生の復帰指示を行なったこと、事象認識部401が事象を認識しなくなったこと(若しくは、事象が終了したこと)に応じて、通常のコンテンツ再生を再開するようにする。
そして、コンテンツの再生が終了するまで(コンテンツの最後まで再生し終わることと、ユーザーが再生を停止させることを含む)(ステップS709のNo)、ステップS702に戻り、上記の処理を繰り返し実行する。
本実施例によれば、ヘッド・マウント・ディスプレイ100は現実世界で発生した事象に応じてコンテンツの再生を制御するので、ユーザーは、仮想世界と現実世界の間で自然なコミュニケーションをとることができる。
また、重要度判定部604は、ユーザーの没入度の変化に対応して事象の重要度を判定するので、ユーザーは、仮想世界と現実世界の間で自然なコミュニケーションを適応的にとることができる。
特開2012−141461号公報 特開2012−42654号公報 特開平6−78248号公報 特開2000−111830号公報 特開平5−304646号公報 特開2008−304268号公報
以上、特定の実施形態を参照しながら、本明細書で開示する技術について詳細に説明してきた。しかしながら、本明細書で開示する技術の要旨を逸脱しない範囲で当業者が該実施形態の修正や代用を成し得ることは自明である。
本明細書では、本明細書で開示する技術を遮光性のヘッド・マウント・ディスプレイに適用した実施形態を中心に説明してきたが、本明細書で開示する技術の要旨はこれに限定されるものではない。透過性のヘッド・マウント・ディスプレイや、ヘッド・アップ・ディスプレイ、カメラ付きのスマートフォン、多機能端末など、現実世界の画像と仮想世界の画像を表示する機能を備えたさまざまなタイプの画像表示装置に対して、同様に本明細書で開示する技術を適用することができる。
要するに、例示という形態により本明細書で開示する技術について説明してきたのであり、本明細書の記載内容を限定的に解釈するべきではない。本明細書で開示する技術の要旨を判断するためには、特許請求の範囲を参酌すべきである。
なお、本明細書の開示の技術は、以下のような構成をとることも可能である。
(1)画像を表示する画像表示部と、
現実世界で発生する事象を認識する事象認識部と、
事象の重要度を判定する重要度判定部と、
重要度に対応した処理を実行する対応処理部と、
を具備する、頭部又は顔部に装着される画像表示装置。
(2)現実世界における事象を検出するセンサー部をさらに備え、
前記事象認識部は、前記センサー部の検出結果に基づいて事象を認識する、
上記(1)に記載の画像表示装置。
(3)現実世界を撮影する撮影部をさらに備え、
前記事象認識部は、前記撮影部による撮影画像に基づいて事象を認識する、
上記(1)に記載の画像表示装置。
(4)前記事象認識部は、撮影画像を顔認識して、近付いてくる人物を事象として認識する、
上記(3)に記載の画像表示装置。
(5)現実世界の音声を入力する音声入力部をさらに備え、
前記事象認識部は、前記音声入力部から入力された音声に基づいて事象を認識する、
上記(1)に記載の画像表示装置。
(6)前記事象認識部は、入力された音声を音声認識して、近隣にいる人物を事象として認識する、
上記(5)に記載の画像表示装置。
(7)周囲環境の情報を取得する環境情報取得部をさらに備え、
前記事象認識部は、周囲環境の情報に基づいて事象を認識する、
上記(1)に記載の画像表示装置。
(8)前記重要度判定部は、前記画像表示装置を頭部又は顔部に装着するユーザーと認識された事象との関係に基づいて、事象の重要度を判定する、
上記(1)又は(7)のいずれかに記載の画像表示装置。
(9)前記重要度判定部は、前記画像表示装置を頭部又は顔部に装着するユーザーと認識された人物との人間関係に基づいて、事象の重要度を判定する、
上記(4)又は(6)のいずれかに記載の画像表示装置。
(10)前記重要度判定部は、認識された事象の性質に基づいて重要度を判定する、
上記(1)乃至(3)、(5)、(7)のいずれかに記載の画像表示装置。
(11)前記重要度判定部は、所定のデータベースを参照して、認識された事象の重要度を判定する、
上記(1)乃至(3)、(5)、(7)のいずれかに記載の画像表示装置。
(12)前記重要度判定部は、前記画像表示装置を頭部又は顔部に装着するユーザーが決めた基準に基づいて、認識された事象の重要度を判定する、
上記(1)乃至(3)、(5)、(7)のいずれかに記載の画像表示装置。
(13)前記重要度判定部は、事象として移動する物体が認識されたときに、物体の移動に基づいて、認識された事象の重要度を判定する、
上記(1)乃至(3)、(5)、(7)のいずれかに記載の画像表示装置。
(14)前記対応処理部は、事象の重要度に基づいて、前記画像表示部の再生コンテンツの画像の表示を制御する、
上記(1)乃至(13)のいずれかに記載の画像表示装置。
(14−1)前記画像表示装置を装着しない外部の者が観察できる外側画像を表示する外側表示部をさらに備え、
前記対応処理部は、事象の重要度に基づいて、前記外側表示部に表示する外側画像を制御する、
上記(1)に記載の画像表示装置。
(15)現実世界を撮影する撮影部をさらに備え、
前記対応処理部は、事象の重要度に基づいて、前記画像表示部で再生コンテンツの画像と前記撮影部の撮影画像の表示を制御する、
上記(14)に記載の画像表示装置。
(16)前記対応処理部は、事象の重要度に基づいて、再生コンテンツの画像の表示を停止して撮影画像の表示に切り替え、再生コンテンツの画像と撮影画像を所定の割合で混合し、又は、再生コンテンツの画像を表示し続ける、
上記(15)に記載の画像表示装置。
(17)再生コンテンツの音声を出力する音声出力部をさらに備え、
前記対応処理部は、事象の重要度に基づいて、前記音声出力部からの音声出力を制御する、
上記(1)に記載の画像表示装置。
(17−1)前記対応処理部は、事象の重要度に基づいて、再生コンテンツの音声出力を停止し、又は、再生コンテンツの音声の音量を調整する、
上記(17)に記載の画像表示装置。
(17−2)現実世界の音声を入力する音声入力部をさらに備え、
前記対応処理部は、事象の重要度に基づいて、再生コンテンツの音声と前記音声入力部に入力された音声を前記音声出力部から出力する割合を制御する、
上記(17)に記載の画像表示装置。
(18)前記画像表示装置を頭部又は顔部に装着するユーザーの前記画像表示部で表示する再生コンテンツに対する没入度を判定する没入度判定部をさらに備え、
前記重要度判定部は、没入度を考慮して事象の重要度を判定する、
上記(1)乃至(13)のいずれかに記載の画像表示装置。
(18−1)前記没入度判定部は、前記画像表示装置を頭部又は顔部に装着するユーザーの体温、発汗、脈拍、筋電位、眼電位、脳波などのユーザーの状態を示す情報に基づいて、ユーザーの没入度を判定する、
上記(18)に記載の画像表示装置。
(19)前記重要度判定部は、没入度が高いときには事象の重要度を抑制し、没入度が低いときには事象の重要度をエンハンスする、
上記(18)に記載の画像表示装置。
(20)現実世界で発生する事象を認識する事象認識ステップと、
事象の重要度を判定する重要度判定ステップと、
重要度に対応して、頭部又は顔部に装着された画像表示部の画像の表示を制御する対応処理ステップと、
を有する画像表示方法。
100…ヘッド・マウント・ディスプレイ
101L、101R…虚像光学部
103L、103R…マイクロフォン、104L、104R…表示パネル
105…眼幅調整機構
301…制御部、301A…ROM、301B…RAM
302…入力操作部、303…リモコン受信部
304…状態情報取得部、305…通信部、306…記憶部
307…画像処理部、308…表示駆動部
309…表示部、310…虚像光学部、311…外側表示部
312…外側カメラ、313…音声処理部、314…音声入出力部
315…タッチパネル、316…環境情報取得部
401…事象認識部、402…重要度判定部、403…対応処理部
410…データベース
601…事象認識部、602…没入度判定部、603…重要度判定部
604…対応処理部、610…データベース

Claims (18)

  1. 画像を表示する画像表示部と、
    現実世界を撮影する撮影部と、
    現実世界で発生する事象を認識する事象認識部と、
    事象の重要度を判定する重要度判定部と、
    前記画像表示部で表示する再生コンテンツの画像上に重畳する現実世界の撮影画像を事象の重要度に応じた大きさ制御する対応処理部と、
    を具備する、頭部又は顔部に装着される画像表示装置。
  2. 現実世界における事象を検出するセンサー部をさらに備え、
    前記事象認識部は、前記センサー部の検出結果に基づいて事象を認識する、
    請求項1に記載の画像表示装置。
  3. 前記事象認識部は、前記撮影部による撮影画像に基づいて事象を認識する、
    請求項1に記載の画像表示装置。
  4. 前記事象認識部は、撮影画像を顔認識して、近付いてくる人物を事象として認識する、
    請求項1に記載の画像表示装置。
  5. 現実世界の音声を入力する音声入力部をさらに備え、
    前記事象認識部は、前記音声入力部から入力された音声に基づいて事象を認識する、
    請求項1に記載の画像表示装置。
  6. 前記事象認識部は、入力された音声を音声認識して、近隣にいる人物を事象として認識する、
    請求項5に記載の画像表示装置。
  7. 周囲環境の情報を取得する環境情報取得部をさらに備え、
    前記事象認識部は、周囲環境の情報に基づいて事象を認識する、
    請求項1に記載の画像表示装置。
  8. 前記重要度判定部は、前記画像表示装置を頭部又は顔部に装着するユーザーと認識された事象との関係に基づいて、事象の重要度を判定する、
    請求項1に記載の画像表示装置。
  9. 前記重要度判定部は、前記画像表示装置を頭部又は顔部に装着するユーザーと認識された人物との人間関係に基づいて、事象の重要度を判定する、
    請求項4又は6のいずれかに記載の画像表示装置。
  10. 前記重要度判定部は、認識された事象の性質に基づいて重要度を判定する、
    請求項1に記載の画像表示装置。
  11. 前記重要度判定部は、所定のデータベースを参照して、認識された事象の重要度を判定する、
    請求項1に記載の画像表示装置。
  12. 前記重要度判定部は、前記画像表示装置を頭部又は顔部に装着するユーザーが決めた基準に基づいて、認識された事象の重要度を判定する、
    請求項1に記載の画像表示装置。
  13. 前記重要度判定部は、事象として移動する物体が認識されたときに、物体の移動に基づいて、認識された事象の重要度を判定する、
    請求項1に記載の画像表示装置。
  14. 前記対応処理部は、事象の重要度に基づいて、前記画像表示部の再生コンテンツの画像の表示を制御する、
    請求項1に記載の画像表示装置。
  15. 再生コンテンツの音声を出力する音声出力部をさらに備え、
    前記対応処理部は、事象の重要度に応じて、前記音声出力部から出力する再生コンテンツ音量を低下する、
    請求項1に記載の画像表示装置。
  16. 前記画像表示装置を頭部又は顔部に装着するユーザーの前記画像表示部で表示する再生コンテンツに対する没入度を判定する没入度判定部をさらに備え、
    前記重要度判定部は、没入度を考慮して事象の重要度を判定する、
    請求項1に記載の画像表示装置。
  17. 前記重要度判定部は、没入度が高いときには事象の重要度を抑制し、没入度が低いときには事象の重要度をエンハンスする、
    請求項16に記載の画像表示装置。
  18. 現実世界で発生する事象を認識する事象認識ステップと、
    事象の重要度を判定する重要度判定ステップと、
    頭部又は顔部に装着された画像表示部で表示する再生コンテンツの画像上に重畳する現実世界の撮影画像を事象の重要度に応じた大きさ制御する対応処理ステップと、
    を有する画像表示方法。
JP2013262926A 2013-12-19 2013-12-19 画像表示装置及び画像表示方法 Active JP6079614B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2013262926A JP6079614B2 (ja) 2013-12-19 2013-12-19 画像表示装置及び画像表示方法
CN201480046371.1A CN105474302B (zh) 2013-12-19 2014-11-11 头戴显示设备和图像显示方法
PCT/JP2014/005651 WO2015092968A1 (en) 2013-12-19 2014-11-11 Head-mounted display device and image display method
EP14805368.9A EP3030954A1 (en) 2013-12-19 2014-11-11 Head-mounted display device and image display method
US14/911,331 US9964766B2 (en) 2013-12-19 2014-11-11 Controlling reproduction of content in a head-mounted display

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013262926A JP6079614B2 (ja) 2013-12-19 2013-12-19 画像表示装置及び画像表示方法

Publications (2)

Publication Number Publication Date
JP2015118332A JP2015118332A (ja) 2015-06-25
JP6079614B2 true JP6079614B2 (ja) 2017-02-15

Family

ID=51999479

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013262926A Active JP6079614B2 (ja) 2013-12-19 2013-12-19 画像表示装置及び画像表示方法

Country Status (5)

Country Link
US (1) US9964766B2 (ja)
EP (1) EP3030954A1 (ja)
JP (1) JP6079614B2 (ja)
CN (1) CN105474302B (ja)
WO (1) WO2015092968A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022060605A3 (en) * 2020-09-21 2022-06-02 Daedalus Labs Llc Systems with displays and sensors

Families Citing this family (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105607253B (zh) * 2014-11-17 2020-05-12 精工爱普生株式会社 头部佩戴型显示装置以及控制方法、显示***
WO2017039308A1 (en) * 2015-08-31 2017-03-09 Samsung Electronics Co., Ltd. Virtual reality display apparatus and display method thereof
CN110275619A (zh) * 2015-08-31 2019-09-24 北京三星通信技术研究有限公司 在头戴式显示器中显示真实物体的方法及其头戴式显示器
US10545714B2 (en) 2015-09-04 2020-01-28 Samsung Electronics Co., Ltd. Dual screen head mounted display
US9298283B1 (en) 2015-09-10 2016-03-29 Connectivity Labs Inc. Sedentary virtual reality method and systems
EP3367213A4 (en) * 2015-10-22 2019-04-17 LG Electronics Inc. MOBILE DEVICE AND CONTROL PROCESS THEREFOR
US10059347B2 (en) 2015-10-26 2018-08-28 Active Knowledge Ltd. Warning a vehicle occupant before an intense movement
DE102016120425A1 (de) 2015-10-26 2017-04-27 Active Knowledge Ltd. Zusammenfügen einer ein Fahrzeugfenster imitierenden Videodurchsicht mit einem anderen Video
US10717406B2 (en) 2015-10-26 2020-07-21 Active Knowledge Ltd. Autonomous vehicle having an external shock-absorbing energy dissipation padding
US10710608B2 (en) 2015-10-26 2020-07-14 Active Knowledge Ltd. Provide specific warnings to vehicle occupants before intense movements
US11332061B2 (en) 2015-10-26 2022-05-17 Atnomity Ltd. Unmanned carrier for carrying urban manned vehicles
DE102015014450B4 (de) * 2015-11-07 2017-11-23 Audi Ag Virtual-Reality-Brille und Verfahren zum Betreiben einer Virtual-Reality-Brille
WO2017085598A1 (ja) * 2015-11-18 2017-05-26 株式会社半導体エネルギー研究所 半導体装置、電子機器
US10133407B2 (en) 2015-12-28 2018-11-20 Seiko Epson Corporation Display apparatus, display system, method for controlling display apparatus, and program
US20170230640A1 (en) * 2016-02-05 2017-08-10 Samsung Electronics Co., Ltd. Portable image device with external display
WO2017164798A1 (en) * 2016-03-21 2017-09-28 Voysys Ab Method, device and program storage unit for live broadcasting of spherical video
CA2999057C (en) * 2016-04-27 2023-12-05 Rovi Guides, Inc. Methods and systems for displaying additional content on a heads up display displaying a virtual reality environment
KR20180014492A (ko) * 2016-08-01 2018-02-09 삼성전자주식회사 영상 표시 방법 및 이를 지원하는 전자 장치
JP6882659B2 (ja) 2016-09-29 2021-06-02 ミツミ電機株式会社 光走査型ヘッドマウントディスプレイ及び網膜走査型ヘッドマウントディスプレイ
CN109804357A (zh) * 2016-10-07 2019-05-24 索尼公司 服务器、客户端、控制方法和存储介质
KR101937823B1 (ko) * 2016-10-24 2019-01-14 주식회사 브이터치 객체 제어를 지원하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체
CA3051060A1 (en) 2016-12-29 2018-07-05 Magic Leap, Inc. Automatic control of wearable display device based on external conditions
JP6838434B2 (ja) * 2017-03-13 2021-03-03 オムロン株式会社 環境センサ
WO2018173399A1 (ja) 2017-03-21 2018-09-27 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
US10877555B2 (en) 2017-03-21 2020-12-29 Sony Corporation Information processing device and information processing method for controlling user immersion degree in a virtual reality environment
US10713848B2 (en) * 2017-04-06 2020-07-14 Htc Corporation System and method for providing simulated environment
JP7161470B2 (ja) * 2017-06-08 2022-10-26 キヤノン株式会社 画像処理装置およびその制御方法
GB2563276B (en) * 2017-06-09 2021-12-01 Advanced Risc Mach Ltd Virtual reality systems
WO2019036533A1 (en) * 2017-08-16 2019-02-21 Veritaz Inc. PERSONAL DISPLAY HELMET FOR LIMITING USER ACCESS TO UNAUTHORIZED RESOURCES
US10410432B2 (en) * 2017-10-27 2019-09-10 International Business Machines Corporation Incorporating external sounds in a virtual reality environment
EP3493026A1 (en) * 2017-11-29 2019-06-05 Thomson Licensing A virtual reality external event processing method, corresponding devices and computer program
JP7043845B2 (ja) * 2018-01-17 2022-03-30 トヨタ自動車株式会社 車両用表示連携制御装置
JP6917340B2 (ja) * 2018-05-17 2021-08-11 グリー株式会社 データ処理プログラム、データ処理方法、および、データ処理装置
US10770036B2 (en) * 2018-08-27 2020-09-08 Lenovo (Singapore) Pte. Ltd. Presentation of content on left and right eye portions of headset
US10937191B2 (en) * 2018-10-23 2021-03-02 Dell Products, Lp Predictive simultaneous localization and mapping system using prior user session positional information
EP3940687A4 (en) * 2019-03-12 2022-05-04 Sony Group Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD AND PROGRAM
JP2021067899A (ja) * 2019-10-28 2021-04-30 株式会社日立製作所 頭部装着型表示装置および表示コンテンツ制御方法
CN116420130A (zh) * 2020-09-25 2023-07-11 苹果公司 用于调节和/或控制与用户界面相关联的沉浸度的方法
US11995230B2 (en) 2021-02-11 2024-05-28 Apple Inc. Methods for presenting and sharing content in an environment

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3774812D1 (de) 1986-09-15 1992-01-09 Wolf Geraete Gmbh Vertikutiermesser fuer ein vertikutiergeraet.
JP3326820B2 (ja) 1992-08-28 2002-09-24 ソニー株式会社 視覚装置
JPH07311362A (ja) * 1994-05-17 1995-11-28 Canon Inc 画像表示装置及びそれを管理する管理装置
GB2301216A (en) * 1995-05-25 1996-11-27 Philips Electronics Uk Ltd Display headset
JPH1184308A (ja) * 1997-09-02 1999-03-26 Minolta Co Ltd 頭部装着装置及び映像観察装置
JP4075345B2 (ja) * 2001-10-11 2008-04-16 日産自動車株式会社 自動巡航制御装置
JP2004109995A (ja) * 2003-08-12 2004-04-08 Toshiba Corp 装着型情報呈示装置および方法および記憶媒体
JP4344568B2 (ja) * 2003-09-05 2009-10-14 富士フイルム株式会社 ヘッドマウントディスプレイ及びそのコンテンツ再生方法
JP2005315802A (ja) * 2004-04-30 2005-11-10 Olympus Corp ユーザ支援装置
JP4952139B2 (ja) * 2006-08-18 2012-06-13 株式会社ニコン 携帯型コンテンツ出力装置
JP2008053300A (ja) 2006-08-22 2008-03-06 Matsushita Electric Ind Co Ltd 半導体記憶装置およびその製造方法
US7936489B2 (en) * 2007-02-09 2011-05-03 GM Global Technology Operations LLC Holographic information display
JP5380789B2 (ja) 2007-06-06 2014-01-08 ソニー株式会社 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
JP2010083205A (ja) * 2008-09-29 2010-04-15 Denso Corp 衝突警戒車両認知支援装置
US8957835B2 (en) * 2008-09-30 2015-02-17 Apple Inc. Head-mounted display apparatus for retaining a portable electronic device with display
US20140229866A1 (en) * 2008-11-24 2014-08-14 Shindig, Inc. Systems and methods for grouping participants of multi-user events
US20120019557A1 (en) * 2010-07-22 2012-01-26 Sony Ericsson Mobile Communications Ab Displaying augmented reality information
JP5434848B2 (ja) 2010-08-18 2014-03-05 ソニー株式会社 表示装置
JP2012141461A (ja) 2010-12-29 2012-07-26 Sony Corp ヘッド・マウント・ディスプレイ
JP5482711B2 (ja) * 2011-04-08 2014-05-07 ブラザー工業株式会社 画像表示装置
US9081177B2 (en) * 2011-10-07 2015-07-14 Google Inc. Wearable computer with nearby object response
US9064152B2 (en) * 2011-12-01 2015-06-23 Elwha Llc Vehicular threat detection based on image analysis
US20130215109A1 (en) * 2012-02-22 2013-08-22 Silka Miesnieks Designating Real World Locations for Virtual World Control
GB2501768A (en) 2012-05-04 2013-11-06 Sony Comp Entertainment Europe Head mounted display
JP5580855B2 (ja) * 2012-06-12 2014-08-27 株式会社ソニー・コンピュータエンタテインメント 障害物回避装置および障害物回避方法
US9973550B2 (en) * 2013-09-11 2018-05-15 Salesforce.Com, Inc. Systems and methods for applying intelligence and prioritization to calendared events

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022060605A3 (en) * 2020-09-21 2022-06-02 Daedalus Labs Llc Systems with displays and sensors

Also Published As

Publication number Publication date
JP2015118332A (ja) 2015-06-25
US20160282618A1 (en) 2016-09-29
CN105474302B (zh) 2020-12-08
EP3030954A1 (en) 2016-06-15
US9964766B2 (en) 2018-05-08
CN105474302A (zh) 2016-04-06
WO2015092968A1 (en) 2015-06-25

Similar Documents

Publication Publication Date Title
JP6079614B2 (ja) 画像表示装置及び画像表示方法
KR102332326B1 (ko) 화상 표시 장치 및 화상 표시 방법
WO2016013269A1 (ja) 画像表示装置及び画像表示方法、並びにコンピューター・プログラム
CN108028957B (zh) 信息处理装置、信息处理方法和机器可读介质
JP6361649B2 (ja) 情報処理装置、通知状態制御方法及びプログラム
JP6428268B2 (ja) 画像表示装置及び画像表示方法、並びに画像表示システム
JP6525010B2 (ja) 情報処理装置及び情報処理方法、並びに画像表示システム
US10444930B2 (en) Head-mounted display device and control method therefor
WO2014156389A1 (ja) 情報処理装置、提示状態制御方法及びプログラム
KR102340665B1 (ko) 프라이버시 스크린
WO2017064926A1 (ja) 情報処理装置及び情報処理方法
JP2014170330A (ja) 仮想現実提示システム、仮想現実提示方法、仮想現実提示装置
WO2020162035A1 (ja) 情報処理装置、情報処理方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160823

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160824

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160831

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170102

R151 Written notification of patent or utility model registration

Ref document number: 6079614

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250