JP2019074582A - 情報処理装置、情報処理方法、及びプログラム - Google Patents

情報処理装置、情報処理方法、及びプログラム Download PDF

Info

Publication number
JP2019074582A
JP2019074582A JP2017199080A JP2017199080A JP2019074582A JP 2019074582 A JP2019074582 A JP 2019074582A JP 2017199080 A JP2017199080 A JP 2017199080A JP 2017199080 A JP2017199080 A JP 2017199080A JP 2019074582 A JP2019074582 A JP 2019074582A
Authority
JP
Japan
Prior art keywords
eye
user
image
information
image display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017199080A
Other languages
English (en)
Inventor
直也 佐塚
Naoya Sazuka
直也 佐塚
清士 吉川
Kiyoshi Yoshikawa
清士 吉川
横山 正幸
Masayuki Yokoyama
正幸 横山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2017199080A priority Critical patent/JP2019074582A/ja
Priority to US16/753,880 priority patent/US11157078B2/en
Priority to EP18865388.5A priority patent/EP3697086A4/en
Priority to CN201880065099.XA priority patent/CN111213375B/zh
Priority to PCT/JP2018/030554 priority patent/WO2019073689A1/ja
Publication of JP2019074582A publication Critical patent/JP2019074582A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/327Calibration thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)

Abstract

【課題】ユーザに対して高品質な視聴体験を実現可能とする情報処理装置、情報処理方法、及びプログラムを提供すること。【解決手段】上記目的を達成するため、本技術の一形態に係る情報処理装置は、取得部と、移動部とを備える。前記取得部は、ユーザの眼に関する眼情報を取得する。前記移動部は、前記取得された眼情報に基づいて、画像光を出射し前記ユーザの眼に導く画像表示機構の少なくとも一部を移動させる。これにより、例えばHMD等を利用するユーザに対して高品質な視聴体験を実現することが可能となる。【選択図】図5

Description

本技術は、HMD(Head Mount Display)等の画像表示装置に適用可能な情報処理装置、情報処理方法、及びプログラムに関する。
特許文献1には、ユーザの視線を検出して、画像の表示を制御する技術について記載されている。例えばHMDに搭載されたカメラによりユーザの眼球が撮影され、その画像に基づいてユーザの視線方向とHMD上の注視点とが算出される。注視点を中心として高画質な部分画像が表示され、部分画像の周辺には低画質な画像が表示される。これによりユーザが高精度に認知できる領域を基準に、画像の表示を制御することが可能となる(特許文献1の明細書段落[0051][0052][0060][0066]図1、3等)。
特許文献2には、ユーザの位置と焦点位置とに基づいて、複数の異なる位置から被写体を撮影した複数の画像データが適宜選択されて合成される。合成された画像データは、提示用画像としてディスプレイに表示される。これにより人間にとって自然な(よりリアルな)画像である、注目点の周囲がぼやけたピンボケ画像(所定の被写界深度をもった画像)を表示させることが可能となる(特許文献2の明細書段落[0059][0074][0075][0098]図10〜13等)。
特開2016−191845号公報 特開2005−227950号公報
今後も、HMD等を利用した仮想現実(VR:Virtual Reality)や拡張現実感(AR:Augmented Reality)の体験は普及していくと考えられ、高品質な視聴体験を実現可能とする技術が求められている。
以上のような事情に鑑み、本技術の目的は、ユーザに対して高品質な視聴体験を実現可能とする情報処理装置、情報処理方法、及びプログラムを提供することにある。
上記目的を達成するため、本技術の一形態に係る情報処理装置は、取得部と、移動部とを備える。
前記取得部は、ユーザの眼に関する眼情報を取得する。
前記移動部は、前記取得された眼情報に基づいて、画像光を出射し前記ユーザの眼に導く画像表示機構の少なくとも一部を移動させる。
この情報処理装置では、ユーザの眼に関する眼情報に基づいて、画像表示機構の少なくとも一部が移動される。これにより、例えばHMD等を利用するユーザに対して高品質な視聴体験を実現することが可能となる。
前記画像表示機構は、前記画像光を出射するディスプレイと、前記ディスプレイから出射された前記画像光を前記ユーザの眼に導くレンズ系とを有してもよい。この場合、前記移動部は、前記ディスプレイ及び前記レンズ系の少なくとも一方を移動させてもよい。
前記眼情報は、前記ユーザの眼を撮影した眼画像を含んでもよい。
前記眼情報は、前記眼画像における前記ユーザの眼の形状、サイズ、位置、傾き、及び虹彩パターンの少なくとも1つを含んでもよい。
前記画像表示機構は、前記ユーザが装着可能なHMD(Head Mount Display)に設けられてもよい。この場合、前記眼情報は、前記HMDの撮像機構により前記ユーザの眼を撮影した前記眼画像を含んでもよい。
前記情報処理装置は、さらに、前記画像表示機構に対して前記ユーザの眼が所定の状態である場合の前記眼情報である基準眼情報を記憶する記憶部を備えてもよい。この場合、前記移動部は、前記取得された眼情報及び前記基準眼情報に基づいて、前記画像表示機構の少なくとも一部を移動させてもよい。
前記所定の状態は、前記画像表示機構により表示される基準画像が、前記眼画像内で前記ユーザの眼に対して所定のサイズ及び位置にて配置される状態を含んでもよい。
前記基準眼情報は、前記画像表示機構に対して前記ユーザの眼が前記所定の状態である場合に、前記ユーザの眼を撮影した基準眼画像を含んでもよい。この場合、前記移動部は、前記眼画像と前記基準眼画像との差分に基づいて、前記画像表示機構の少なくとも一部を移動させてもよい。
前記移動部は、前記画像表示機構に対する前記ユーザの眼の状態が、前記所定の状態に近づくように、前記画像表示機構の少なくとも一部を移動させてもよい。
前記移動部は、前記画像表示機構に対する前記ユーザの眼の状態が、前記所定の状態とは異なる他の状態となるように、前記画像表示機構の少なくとも一部を移動させてもよい。
前記情報処理装置は、さらに、前記画像表示機構による画像表示を制御する表示制御部を備えてもよい。この場合、前記表示制御部は、前記取得された眼情報に基づいて、前記画像表示機構により表示される画像の表示位置を移動させてもよい。
前記移動部は、前記画像表示機構により表示されるコンテンツの内容に基づいて、前記画像表示機構の少なくとも一部を移動させてもよい。
前記移動部は、前記ユーザの視聴時間に基づいて、前記画像表示機構の少なくとも一部を移動させてもよい。
前記情報処理装置は、さらに、前記ユーザの状態に関する状態情報を取得する状態取得部を備えてもよい。この場合、前記移動部は、前記取得された状態情報に基づいて、前記画像表示機構の少なくとも一部を移動させてもよい。
前記情報処理装置は、さらに、前記移動部による前記画像表示機構の少なくとも一部に対する移動量に基づいて、生体センサによる検出結果の信頼度を判定する判定部を備えてもよい。
前記情報処理装置は、さらに、前記取得された眼情報に基づいて、前記HMDの装着状態を制御することが可能な装着状態制御部を備えてもよい。
前記情報処理装置は、さらに、前記取得された眼情報に基づいて、前記ユーザに所定の情報を通知する通知部を備えてもよい。
前記眼情報は、前記ユーザの左眼を撮影した左眼画像、及び前記ユーザの右眼を撮影した右眼画像を含んでもよい。この場合、前記移動部は、前記左眼画像又は前記右眼画像に基づいて、前記画像表示機構の少なくとも一部を移動させてもよい。
本技術の一形態に係る情報処理方法は、コンピュータシステムにより実行される情報処理方法であって、ユーザの眼に関する眼情報を取得することを含む。前記取得された眼情報に基づいて、画像光を出射し前記ユーザの眼に導く画像表示機構の少なくとも一部が移動される。
本技術の一形態に係るプログラムは、コンピュータシステムに以下のステップを実行させる。
ユーザの眼に関する眼情報を取得するステップ。
前記取得された眼情報に基づいて、画像光を出射し前記ユーザの眼に導く画像表示機構の少なくとも一部を移動させるステップ。
以上のように、本技術によれば、ユーザに対して高品質な視聴体験を実現することが可能となる。なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本技術の一実施形態に係る画像表示装置であるHMDの構成例を示す図である。 図1に示すディスプレイユニットの内部の構成例を説明するための模式図である。 本実施形態に係るHMDの機能的な構成例を示すブロック図である。 ユーザの眼に関する眼情報の一例を説明するための模式図である。 HMDにより実行される基本動作の概要を示すフローチャートである。 HMDの使用開始時に実行される処理例を示すフローチャートである。 初期位置の設定例を示すフローチャートである。 図7に示す初期位置の設定例を説明するための模式図である。 初期位置の設定後のHMDの動作例を示すフローチャートである。 ずれ量に応じたレンズ系の移動例を示す模式図である。 HMDにより実行可能な他の処理の概要を示すフローチャートである。 他の実施形態に係るHMDの外観を示す斜視図である。
以下、本技術に係る実施形態を、図面を参照しながら説明する。
[画像表示装置の構成]
図1は、本技術の一実施形態に係る画像表示装置であるヘッドマウントディスプレイ(HMD)の構成例を示す図である。図1AはHMD100の外観を模式的に示す斜視図であり、図1BはHMD100を分解した様子を模式的に示す斜視図である。図2は、図1に示すディスプレイユニット13の内部の構成例を説明するための模式図である。なおHMD100は、本技術に係る情報処理装置としても機能する。
HMD100は、基体部10と、装着バンド部11と、ヘッドフォン部12と、ディスプレイユニット13と、カバー部14と、撮像機構15とを有する。
基体部10は、ユーザの左右の眼1(1a及び1b)の前方に配置される部材であり、ユーザの前頭部と当接される前頭支持部16が設けられる。
装着バンド部11は、ユーザの頭部に装着される。図1に示すように、装着バンド部11は、側頭バンド17と、頭頂バンド18とを有する。側頭バンド17は、基体部10に接続され、側頭部から後頭部にかけてユーザの頭部を囲むように装着される。頭頂バンド18は、側頭バンド17に接続され、側頭部から頭頂部にかけてユーザの頭部を囲むように装着される。
本実施形態では、側頭バンド17及び頭頂バンド18の各々の保持力を自動的に調整可能なバンド調整機構25(図3参照)が備えられている。バンド調整機構25が動作することで、基体部10から外部に出ている側頭バンド17の長さが変更され、頭部を保持する保持力が変更される。またバンド調整機構25が動作することで、頭頂バンド18の長さが変更され、頭部を保持する保持力が変更される。なお側頭バンド17に対する頭頂バンド18の角度が変更可能であってもよい。
バンド調整機構25の構成は限定されず、例えばモータ、圧電素子、ワイヤ、ヒンジ、ソレノイド、又は形状記憶合金(SMA)等を用いた任意のアクチュエータ機構により構成される。
ヘッドフォン部12は、基体部10に接続され、ユーザの左右の耳を覆うように配置される。ヘッドフォン部12には、左用及び右用のスピーカが設けられる。ヘッドフォン部12の位置は、手動又は自動により制御可能となっている。そのための構成は限定されず、任意の構成が採用されてよい。
ディスプレイユニット13は、基体部10に挿入され、ユーザの眼1の前方に配置される。図2に示すように、ディスプレイユニット13には、画像光を出射してユーザの眼1に導く画像表示機構20が構成される。
本実施形態では、画像表示機構20として、画像光を出射するディスプレイ21と、ディスプレイ21から出射された画像光をユーザの眼1に導くレンズ系22とを有する。ディスプレイ21としては、例えば液晶、EL(Electro-Luminescence)等を用いた任意の表示デバイスが用いられてよい。ディスプレイ21に画像が表示される場合に、ディスプレイ21から出射される光が画像光に相当する。
なお画像光は、ディスプレイ21から拡散して出射される。すなわち画像光は、拡散光として出射される。例えば拡散して出射される画像光が、レンズ系22によりユーザの眼1に適切に導かれることで、画像光により構成される画像を焦点が合った状態で視認可能となる。
レンズ系22は、左眼1aの前方に配置される左眼用レンズ系22aと、右眼1bの前方に配置される右眼用レンズ系22bとを有する。各々のレンズ系22の構成は任意であり、1枚のレンズが配置される場合に限定されず、フレネルレンズ等の種々のレンズや光学フィルタ等の任意の光学部材が複数配置されてもよい。
図2にて矢印を用いて模式的に示すように、本実施形態では、ディスプレイ21、左眼用レンズ系22a、及び右眼用レンズ系22bの各々を移動可能な駆動機構26(図3参照)が備えられている。駆動機構26が動作することで、ディスプレイ21の位置や姿勢(向き)、左眼用レンズ系22aの位置や姿勢(向き)、及び右眼用レンズ系22bの位置や姿勢(向き)を、互いに独立して任意に変更させることが可能である。
例えば図2に示すように、ユーザの眼1からディスプレイ21を見た場合の上下方向をX方向、左右方向をY方向、奥行き方向(ディスプレイ21に向かう方向)をZ方向とする。駆動機構26は、ディスプレイ21や各レンズ系22に対して、各軸方向に沿った平行移動や各軸を基準とした回転等の駆動動作を実行することが可能である。駆動機構26の具体的な構成は限定されず、上記したような任意のアクチュエータ機構が用いられてよい。
本実施形態において、ディスプレイ21、左眼用レンズ系22a、及び右眼用レンズ系22bは、画像表示機構20の一部に相当する。すなわちディスプレイ21、左眼用レンズ系22a、及び右眼用レンズ系22bを移動させることは、画像表示機構20の少なくとも一部を移動させることに相当する。
撮像機構15は、ユーザの左眼1aを撮影する左眼用カメラ23aと、ユーザの右眼1bを撮影する右眼用カメラ23bとを有する。左眼用カメラ23a及び右眼用カメラ23bは、HMD100の所定の位置、具体的には基体部10の所定の位置にそれぞれ設置される。従って、ユーザの眼1に対する基体部10の相対的な位置が変化すると、ユーザの眼1に対する左眼用カメラ23a及び右眼用カメラ23bの相対的な位置も変化する。
なお左眼用カメラ23a及び右眼用カメラ23bは、ユーザの左眼1a及び右眼1bを直接的に、すなわち左眼用レンズ系22a及び右眼用レンズ系22bを介することなく、撮影可能な位置にそれぞれ配置される。例えば下方側から斜めに向くように、左眼用カメラ23a及び右眼用カメラ23bが配置される。もちろん他の方向からユーザの眼1に向けて左右のカメラが配置されてもよい。
左眼用カメラ23a及び右眼用カメラ23bとしては、例えばCMOS(Complementary etal-Oxide Semiconductor)センサやCCD(Charge Coupled Device)センサ等のイメージセンサを備えるデジタルカメラが用いられる。また、例えば赤外線LED等の赤外線照明を搭載した赤外線カメラが用いられてもよい。
図1に示すカバー部14は、基体部10に取付けられ、ディスプレイユニット13を覆うように構成される。このように構成されたHMD100は、ユーザの視野を覆うように構成された没入型のヘッドマウントディスプレイとして機能する。ユーザはHMD100を装着することで、例えば仮想現実(VR)等を体験することが可能となる。
図3は、本実施形態に係るHMD100の機能的な構成例を示すブロック図である。HMD100は、さらに、操作ボタン27と、通信部28と、コネクタ29と、記憶部30と、センサ部31と、コントローラ32とを有する。
操作ボタン27は、例えば基体部10の所定の位置に設けられる。操作ボタン27により、電源のON/OFFの操作、、画像表示や音声出力に関する機能やネットワーク通信機能等のHMD100が有する種々の機能に関する操作を実行することができる。
通信部28は、他のデバイスとの間で、ネットワーク通信や近距離無線通信等を実行するためのモジュールである。例えばWiFi等の無線LANモジュールや、Bluetooth(登録商標)等の通信モジュールが設けられる。
コネクタ29は、他のデバイスとの接続のための端子である。例えばUSB(Universal Serial Bus)、HDMI(登録商標)(High-Definition Multimedia Interface)等の端子が設けられる。また充電時には、充電用のドッグ(クレードル)の充電端子とコネクタ29とが接続されて充電が行われる。
センサ部31は、圧力センサ34、近接センサ35、9軸センサ36、GPS37、及び生体センサ38を含む。圧力センサ34は、例えば図1に示す側頭バンド17及び頭頂バンド18の所定の位置に設けられる。圧力センサ34により、側頭バンド17及び頭頂バンド18から頭部に加えられる圧力を測定すること可能である。
近接センサ35は、装着バンド部11の内周側の所定の位置に設けられ、その検出結果は、HMD100の装着の有無の判定に用いられる。9軸センサ36は、3軸加速度センサ、3軸ジャイロセンサ、及び3軸コンパスセンサを含む。9軸センサ36により、HMD100の、3軸における加速度、角速度、及び方位を検出することが可能である。GPS37は、HMD100の現在位置の情報を取得する。これらのセンサは、例えば基体部10の所定の位置に設けられる。もちろん他の位置に設けられてもよい。
生体センサ38は、ユーザの生体情報を取得する。例えば生体センサ38として、脳波センサ、筋電センサ、脈拍センサ、発汗センサ、温度センサ、血流センサ、体動センサ等が設けられる。これらのセンサは、検出端子部が体の所定の位置に接触するように、HMD100の所定の位置に設けられる。例えば脳波センサは、頭部の所定の位置に接触可能に設けられる。脈拍センサは、首の血管に接触可能な位置に設けられる。
センサ部31として設けられるセンサの種類は限定されず、任意のセンサが設けられてもよい。例えばHMD100を使用する環境の温度や湿度等を測定可能な温度センサや湿度センサ等が設けられてもよい。
記憶部30は、不揮発性の記憶デバイスであり、例えばHDD(Hard Disk Drive)等が用いられる。記憶部30には、HMD100の全体の動作を制御するための制御プログラム40が記憶される。また記憶部30には、機構駆動テーブル41が記憶される。機構駆動テーブル41は、ユーザの眼情報に基づいて画像表示機構20の少なくとも一部を移動させる場合に参照されるテーブルであり、詳しくは後述する。制御プログラム40及び機構駆動テーブル41を、HMD100にインストールする方法は限定されない。
コントローラ32は、HMD100が有する各ブロックの動作を制御する。コントローラ32は、例えばCPUやメモリ(RAM、ROM)等のコンピュータに必要なハードウェア構成を有する。CPUが記憶部30に記憶されている制御プログラム40をRAMにロードして実行することにより、種々の処理が実行される。
コントローラ32として、例えばFPGA(Field Programmable Gate Array)等のPLD(Programmable Logic Device)、その他ASIC(Application Specific IntegratedCircuit)等のデバイスが用いられてもよい。
本実施形態では、コントローラ32のCPUが本実施形態に係るプログラムを実行することで、機能ブロックとして画像解析部43、ずれ算出部44、機構駆動部45、表示制御部46、バンド調整部47、状態解析部48、信頼度判定部49、及び通知部50が実現される。そしてこれらの機能ブロックにより、本実施形態に係る情報処理方法が実行される。なお各機能ブロックを実現するために、IC(集積回路)等の専用のハードウェアが適宜用いられてもよい。
画像解析部43は、撮像機構15により撮影されたユーザの眼画像を解析する。すなわち左眼用カメラ23aにより撮影された左眼画像、及び右眼用カメラ23bにより撮影された右眼画像を取得し、これらの画像を解析する。画像解析部43に入力される左眼画像及び右眼画像、画像解析部43の解析の結果検出される種々の特徴パラメータのいずれもが、本実施形態においてユーザの眼1に関する眼情報に含まれる。これらの眼情報に基づいて、例えばユーザの眼1の位置を動的に推定することが可能である。本実施形態において、画像解析部43は、取得部として機能する。
図4は、ユーザの眼1に関する眼情報の一例を説明するための模式図である。例えば眼情報として、眼画像55におけるユーザの眼1Pの形状、サイズ、位置、及び傾き等が検出可能である。具合的には、ユーザの眼領域56が検出され、その形状、サイズ、位置、傾きが検出される。例えば図4に示すように、ユーザの眼1Pの長軸57のサイズtが、ユーザの眼領域56のサイズとして用いられてもよい。またユーザの眼1Pの長軸57の水平方向に対する傾きが、ユーザの眼領域56の傾きとして用いられてもよい。
なおユーザの眼1Pの長軸57は、ユーザの顔の上下方向(例えば頭頂部から顎に向かう方向)が略鉛直方向となり、顔の横方向(例えば両耳の同じ高さの位置を結ぶ方向)が略水平方向となる場合の、ユーザの眼1の右端部の位置と、左端部の位置とを略水平方向に結ぶ軸である。
またユーザの眼領域56の全体が眼画像55内に含まれているか否か、上下左右のどの方向に眼領域56が欠損しているか、といった情報も、ユーザの眼1に関する眼情報に含まれる。その他、眼情報として、視線方向、瞳孔の大きさ、虹彩のパターン、まつ毛の態様等、任意の情報が検出されてもよい。
なお眼画像を解析して特徴パラメータを検出する方法は限定されず、任意のセグメンテーション技術や任意の画像解析技術が用いられてよい。またRNN(Recurrent Neural Network:再帰型ニューラルネットワーク)、CNN(Convolutional Neural Network:畳み込みニューラルネットワーク)、MLP(Multilayer Perceptron:多層パーセプトロン)等のDNN(Deep Neural Network:深層ニューラルネットワーク)を用いた機械学習アルゴリズムが用いられてもよい。
ずれ算出部44は、画像解析部43により取得されたユーザの眼情報に基づいて、ユーザの眼1の初期状態からのずれ量を算出する。ユーザの眼1の初期状態、及び初期状態からのずれについては、後に説明する。
機構駆動部45は、駆動機構26に制御信号を出力する。機構駆動部45から出力される制御信号に基づいて、ディスプレイ21、左眼用レンズ系22a、及び右眼用レンズ系22bの各々が移動される。本実施形態において、ずれ算出部44及び機構駆動部45は、移動部として機能する。
表示制御部46は、画像表示機構20による画像表示を制御する。表示制御部46により、例えば表示される画像の補正や、表示される画像の表示位置の移動等、任意の画像処理及び表示制御が実行される。
バンド調整部47は、バンド調整機構25に制御信号を出力する。バンド調整部47から出力される制御信号に基づいて、側頭バンド17及び頭頂バンド18の各々の保持力が調整される。本実施形態において、バンド調整部47は、HMD100の装着状態を制御可能な装着状態制御部として機能する。
状態解析部48は、センサ部31からの検出結果に基づいて、ユーザやHMD100の状態に関する種々の状態情報を取得する。例えばユーザの状態情報として、睡眠状態であるか否かの情報や、体温、脈拍数、脳波状態、筋肉の動き、発汗量、集中状態等の生体情報が取得される。またユーザの現在地の情報、さらに詳しく屋内であるか、屋外であるか、会議中であるか等の情報も取得可能である。
またユーザが行う運動に関する運動情報が取得される。例えば歩行中、走行中、電車にて移動中、運転中等の情報が取得される。運動しているスポーツの種類等の情報も取得可能である。また座っているか、立っているか、前屈みか、横を向いているか、上を向いているか等の、姿勢に関する情報が取得される。これらのユーザの状態情報は、例えば機械学習で得られたパラメータ等を用いた行動解析等の、任意の行動解析技術により取得可能である。
またHMD100の機器状態の情報としては、例えば実行中の機能、動作モード、ユーザに対する装着の有無、ユーザに対する装着位置、バッテリー残量、充電ドックとの接続、機器の温度等の、種々の情報が取得される。また使用環境の情報として、温度、湿度、現在位置、天候、日時等の種々の情報を取得することも可能である。これらの情報を取得するためのセンサやデバイス等が、適宜HMD100に設けられればよい。また状態解析方法は限定されず、例えば機械学習アルゴリズムが用いられてもよい。状態解析部48は、本実施形態において、状態取得部として機能する。
信頼度判定部49は、センサ部31による検出結果の信頼度を判定する。この判定については、後に説明する。
通知部50は、ユーザに種々の情報を通知する。例えばディスプレイ21への画像やテキストの表示、ヘッドフォン部12からの音声出力、基体部10やカバー部14の外部の所定の位置を所定の色で光らせる(点滅させる)、任意のバイブレーション機構により基体部10等を振動させる等の任意の方法にて、所定の情報の通知が実現される。例えばHMD100の使用に関する情報や、コンテンツに関する情報、センサ部31による検出結果に関する情報等、任意の情報を通知可能である。
[画像表示装置の動作]
本実施形態に係る画像表示装置であるHMD100の動作を説明する。図5は、HMD100により実行される基本動作の概要を示すフローチャートである。まず画像解析部43により、ユーザの眼1a及び1bに関する眼情報が取得される(ステップ201)。当該取得された眼情報に基づいて、視聴状態の変更及び所定の情報の通知が実行される(ステップ102)。
視聴状態の変更は、例えば左右のレンズ系22a及び22bの移動、ディスプレイ21の移動、画像の表示位置の移動、装着バンド部11の調整等の、コンテンツを視聴している状態が変更される任意の処理が含まれる。また所定の警報等を通知すること自体も、視聴状態の変更といえる。
すなわち本実施形態のHMD100では、ユーザの眼1に関する眼情報に基づいて、種々の処理が実行される。これによりユーザに対して高品質な視聴体験を実現することが可能となる。以下、図5に示す基本動作を応用した具体的な実施例を説明する。
図6は、HMD100の使用開始時に実行される処理例を示すフローチャートである。ユーザがHMD100の電源をONにすると、まずHMD100がユーザの頭部に装着済であるか否かが判定される(ステップ201)。この判定は、図3に示す状態解析部48により、近接センサ24の検出結果に基づいて実行される。
HMD100が未装着である場合には(ステップ201のNo)、図3に示す通知部50により、その旨がユーザに通知される(ステップ202)。通知方法は限定されず、例えばヘッドフォン部12から音声が出力されもよいし、基体部10やカバー部14の外側に所定の色光が出力されてもよい。あるいはディスプレイ21の全体が点滅するといった処理が実行されてもよい。もちろんバイブレーション機構による基体部10等の振動により、ユーザへの通知が実行されてもよい。
HMD100が装着済みである場合には(ステップ201のYes)、ユーザの眼領域の探索が開始される(ステップ203)。具体的には、図3に示す画像解析部43により、左眼1aの眼領域56及び右眼1bの眼領域56の検出が実行される。そして左右の眼領域56が全く検出できない状態であるか否かが判定される(ステップ204)。
左右の眼領域56が全く検出できない場合は(ステップ204のYes)、HMD100が物理的に動いているか否かが判定される(ステップ205)。この判定は、状態解析部48により、例えば9軸センサの検出結果に基づいて実行される。
その他、ステップ205の判定処理として、センサ部31に指紋撮影等に使われる近接型カメラを設け、当該近接型カメラによりユーザの皮膚等を撮影し、皮膚模様の移動方向・距離が測定されてもよい。例えばキャリブレーション時からの累積移動距離によって移動距離を推測することも可能である。また遠い場所に置かれたカメラ(IoT等も含む)で撮影された画像に基づいて、HMD100が物理的に動いているか否かが判定されてもよい。例えばHMD100をかけた顔に対して顔検出を実施し、HMDに装着されたLEDマーカーの位置を検出する。顔検出の結果とHMDのLEDマーカーの位置関係から物理的に動いたかを判定可能である。
HMD100が動いている場合は(ステップ205のYes)、HMD100が停止するまで待機する(ステップ206)。すなわちユーザやHMD100の状態が落ち着くまで待機する。そして所定の時間の待機後、ステップ203に戻る。HMD100が動いていない場合は(ステップ205のNo)、左眼用カメラ23a及び右眼用カメラ23bでユーザの眼1を撮影可能なように、装着状態の変更を促す旨の指示が通知される(ステップ207)。例えば手動でHMD100の位置を補正して欲しい旨のアナウンス等を出力する。その後、ステップ203に戻る。
左右の眼領域56が全く検出できない状態ではない場合(ステップ204のNo)、左右の眼領域56の全てが検出可能であるか否かが判定される(ステップ208)。左右の眼領域56に欠損する領域がある場合は(ステップ208のNo)、欠損領域に基づいて、HMD100が左右上下のどの方向にどのぐらいずれているかが推定される(ステップ209)。
バンド調整部47により、ステップ209にて推定されたずれ量に基づいて制御信号が生成され、バンド調整機構25に出力される。すなわち左眼用カメラ23a及び右眼用カメラ23bでユーザの眼1を撮影可能な装着状態となるように、バンド調整機構25に制御信号が出力される。そしてバンド調整機構25により、装着バンド部11の側頭バンド17及び頭頂バンド18の長さや位置が変更される(ステップ210)。
例えばステップ209にて左右方向にずれが生じている旨が推定された場合、側頭バンド17の長さ等が調整される。上下方向にずれが生じている旨が推定された場合、頭頂バンド18の長さ等が調整される。もちろんこのような処理の限定される訳ではない。なお図6中に記載の側頭部側のバンドが側頭バンド17に相当し、頭頂部側のバンドが頭頂バンド18に相当する。装着バンド部11の調整が終わると、ステップ203に戻る。
左右の眼領域56の全てが検出可能である場合は(ステップ208のYes)、初期位置の設定が実行される(ステップ211)。
図7は、初期位置の設定例を示すフローチャートである。図8は、図7に示す初期位置の設定例を説明するための模式図である。初期位置の設定とは、HMD100の使用開始時において、画像表示機構20に対するユーザの左右の眼1の状態を、適正にコンテンツを視聴可能な初期状態に設定することである。本実施形態において、上記の適正にコンテンツを視聴可能な初期状態は、「ユーザの眼が所定の状態である場合」に相当する。また初期状態は、所定の視聴状態ともいえる。
まずディスプレイ21の所定の位置に基準画像60が表示される(ステップ301)。例えば図8Aに示すように、ディスプレイ21の略中央に、緑色等の所定の色が付された点画像が基準画像60として表示される。そしてその状態で撮影された左右の眼画像55が解析される(ステップ302)。
左右の眼画像55内で、基準画像60Pがユーザの左右の眼1Pに対して、所定のサイズ及び位置にて配置されるか否かが判定される。具体的には、基準画像60Pのサイズ及び位置が、所定の状態であるか否かが判定される(ステップ303)。本実施形態では、図8Bに示すように、左右の眼画像55内において、基準画像60Pが瞳孔の中心にて最も小さく明瞭に表示されるか否かが判定される。この状態は、拡散して出射された基準画像60の画像光が最も小さく結像された状態であり、ユーザの左右の眼1がディスプレイ21に表示された基準画像60に対して焦点が合っている状態に相当する。すなわちこの状態は、上記した初期状態が実現されている状態となる。
左右の眼画像55内において、基準画像60Pのサイズ及び位置が所定の状態でない場合には、左右のレンズ系22a及び22bが移動される(ステップ304)。すなわち機構駆動部45により制御信号が生成され、駆動機構26に出力される。駆動機構26は、入力された制御信号に基づいて、左右のレンズ系22a及び22bを移動させる。
例えば図8Cに示す基準画像60PAのように、瞳孔の中心に対して右側にずれており、サイズが広がっている場合には、焦点が合っていないとされる。そして焦点が合っている状態(図8Bに示す状態)となるように、レンズ系22がXYZ軸を基準として適宜移動される。図8Cの基準画像60PBのように、瞳孔の中心に対して左側にずれており、サイズが広がっている場合も同様に、焦点が合っている状態となるように、レンズ系22がXYZ軸を基準として適宜移動される。
例えばレンズ系22をZ方向に移動させることで、基準画像60Pのサイズを制御することが可能である。またレンズ系22をXY平面方向にて平行移動させたり、各軸に沿って傾けたりすることで、基準画像60Pの位置を制御することが可能である。その他、基準画像60Pのサイズ及び位置を制御可能な、任意の駆動方法が実行されてよい。
なおステップ303及び304が、所定の回数だけ繰り返された結果、基準画像60Pが中心位置にて最も小さくなった場合に、ステップ303の所定の状態(すなわち初期状態)が実現されたと判定されてもよい。あるいは、位置及びサイズに対して、所定の許容範囲が設定され、基準画像60Pのサイズ及び位置が当該許容範囲に含まれた場合に、ステップ303の所定の状態(すなわち初期状態)が実現されたと判定されてもよい。
基準画像60Pが所定の状態であると判定された場合、すなわち初期状態が実現された場合は(ステップ303のYes)、左右の眼領域56のサイズ、位置及び傾きが記憶部30に記憶される(ステップ305)。例えば図4に示す眼領域56の長軸57のサイズ(例えばピクセル数)が、眼領域56のサイズとして記憶される。また長軸57の位置及び傾き(例えばピクセルの座標値)が眼領域56の位置及び傾きとして記憶される。もちろんこれに限定されず、眼領域56全体のサイズ及び位置がそのまま記憶されてもよい。
本実施形態において、初期状態となった場合に取得される眼情報、すなわち初期状態となった場合に撮像される眼画像や、当該眼画像から算出される種々の特徴パラメータは、基準眼情報に相当する。また初期状態となった場合に撮像される眼画像は、基準眼画像に相当する。
このように初期位置の設定を実行することで、ユーザの顔や頭部の形状に関する個人差や、左右の眼の間の距離の個人差の影響を十分に防ぐことが可能であり、HMD100を使用する各々のユーザに対して、高品質な視聴体系を実現することが可能となる。
なお基準画像60の形状、サイズ、色等は限定されず、任意に設計されてよい。例えば建造物、車両又は気球の画像、所定のロゴマーク等が、基準画像60として表示されてもよい。また眼画像55内における基準画像60Pに対して設定される、初期状態が実現されたと判定される条件も限定されない。すなわち基準画像60Pのサイズや位置についての条件は任意に設定されてよく、またサイズや位置以外のパラメータ(輝度値やぼやけ度)等が、初期状態の実現に関する条件として採用されてもよい。
例えば、図8に示す点画像のような単純な形状の基準画像60では、眼画像55内での基準画像60Pのサイズにて、初期状態が実現されたか否かが判定される。一方、気球等の複雑な形状の基準画像60が用いられる場合では、眼画像55内での基準画像60Pのサイズのみならずフォーカス(ぼやけ具合)に基づいて、初期状態が実現されたか否かを判定することが可能である。もちろんこれに限定される訳ではない。
またステップ304にて、初期状態を実現するために、ディスプレイ21が移動されてもよい。あるいは基準画像60の表示位置が移動されてもよい。例えば基準画像60の表示位置を変更して初期位置の設定が実行される場合は、初期状態が実現された場合の基準画像60の位置に応じた位置で、コンテンツ画像等が表示されればよい。
初期位置の設定は、コンテンツを視聴前の焦点や表示位置の設定処理といえる。本技術では、以下に示すように、コンテンツの開始時のみならず、コンテンツの実行時(視聴時)も、動的に視聴状態の変更が実行可能である。
図9は、初期位置の設定後のHMD100の動作例を示すフローチャートである。ステップ401〜ステップ410は、図6に示すステップ201〜210と略同様である。初期位置の設定が終了した直後は、ほとんどの場合、ステップ408のYesからステップ411に進む。なおコンテンツの視聴中、仮想現実(VR)内にてユーザが歩いたり走ったりすることも十分にあり得る。その場合、HMD100がずれてしまう場合も考えられるが、ステップ401〜ステップ410を実行することで、自動的にステップ411まで進ませることが可能である。
ステップ411では、図3に示すずれ算出部44により、眼領域56の長軸57の傾きが、初期状態における長軸57の傾きと比べて、変化があるか否かが判定される。長軸57の傾きに変化がある場合は、表示制御部46により、ディスプレイ21に表示されている画像(コンテンツ画像)の表示位置が移動される。具体的には、長軸57の傾きの変化に応じた回転角度で、ディスプレイ21に対する表示座標軸が回転される(ステップ412)。これによりHMD100の回転ずれ等により発生する画像の傾きを補正することが可能となる。
長軸57の傾きに変化がない場合は、ずれ算出部44により、眼領域56の形状、サイズ及び位置が、初期状態における眼領域56の形状、サイズ及び位置と比べて、変化があるか否かが判定される(ステップ413)。眼領域56の形状、サイズ及び位置に変化がない場合は、視聴状態の変更は実行されず、ステップ403に戻る。
眼領域56の形状、サイズ及び位置に変化ある場合には、機構駆動部45により当該変化に応じた制御信号が生成され、駆動機構26に出力される。これによりディスプレイ21、左眼用レンズ系22a、及び右眼用レンズ系22bの各々の位置や角度が調整される(ステップ414)。具体的には、画像表示機構20に対するユーザの眼1の状態が、初期状態に近づくように、ディスプレイ21、左眼用レンズ系22a、及び右眼用レンズ系22bの各々の位置や角度が調整される。
そのために本実施形態では、記憶部30に記憶されている機構駆動テーブル41が参照される。機構駆動テーブル41は、ずれ算出部44により算出されたずれ量と、ディスプレイ21、左眼用レンズ系22a、及び右眼用レンズ系22bの移動量とが関連付けられたテーブルである。機構駆動テーブル41は、キャリブレーション等によりあらかじめ作成されて、記憶部30に記憶されている。
例えば左右の眼の各々に対して、ずれ量と、ディスプレイの移動量及びレンズ系の移動量との組み合わせとの関係を示す2次元ルックアップテーブルが作成される。あるいはずれ量、ディスプレイの移動量、及びレンズ系の移動量との関係を示す3次元ルックアップテーブルが作成されてもよい。またディスプレイを移動させる条件やレンズ系を移動させる条件等が定められており、どのデバイスを移動させるかが適宜判断されてもよい。この場合、判断された結果に応じて使用される複数のテーブル情報が作成されてもよい。
もちろんテーブル情報が用いられずに、ディスプレイ21やレンズ系22の移動が実行されてもよい。例えばずれ量に基づいて、その都度移動量が演算により算出され、適宜駆動機構26の動作が制御されてもよい。
図10は、ずれ量に応じたレンズ系22の移動例を示す模式図である。例えば図10Aに示すように、眼画像55における眼領域56のサイズが、初期状態での眼領域56のサイズよりも小さくなったとする。この場合、左眼用カメラ23a及び右眼用カメラ23bが設置されている基体部10が、ユーザの眼1から離れる方向に移動していることになる。このずれの影響を補正するために、すなわち初期状態に近づけるために、左右のレンズ系22がユーザの眼に近付けられる。
図10Bに示すように、眼画像55における眼領域56のサイズが、初期状態での眼領域56のサイズよりも大きくなったとする。この場合、左眼用カメラ23a及び右眼用カメラ23bが設置されている基体部10が、眼1に近づく方向に移動していることになる。このずれの影響を補正するために、すなわち初期状態に近づけるために、左右のレンズ系22がユーザの眼から遠ざけられる。
図10Cに示すように、眼画像55における眼領域56の位置が、初期状態での眼領域56の位置からずれたとする。この場合、左眼用カメラ23a及び右眼用カメラ23bが設置されている基体部10が、XY平面において移動していることになる。このずれの影響を補正するために、すなわち初期状態に近づけるために、左右のレンズ系22の位置がXY平面方向においてずれを解消する方向に移動される。あるいは左右のレンズ系22の角度を調整することで、眼領域56の位置のずれを補正することもあり得る。
すなわち本実施形態では、初期状態で撮影された基準眼画像と、コンテンツ視聴中に撮影される眼画像との差分に基づいて、画像表示機構20の少なくとも一部が移動される。なおずれに応じて画像表示機構20の少なくとも一部を移動させる方法は、図10に例示する方法に限定されず、任意の駆動方法(補正方法)が実行されてよい。例えば左右の眼領域56のサイズが略等しくなるように、ディスプレイ12やレンズ系22が移動される、といった処理もあり得る。
このように、本実施形態に係るHMD100では、ユーザの眼1に関する眼情報に基づいて、視聴状態の変更及び所定の通知が実行される。すなわち眼情報に基づいて、画像表示機構20の少なくとも一部の移動、装着バンド部11の調整、及び所定の情報の通知が実行される。これにより、例えばHMD100を利用するユーザに対して高品質な視聴体験を実現することが可能となる。
今後も、HMD等を利用した仮想現実(VR)や拡張現実感(AR)の体験は普及していくと考えられる。また使用されるHMDの軽量化も進むと予想され、HMDのずれの影響を効果的に補正することは非常に重要となる。例えばユーザが手動でHMDを動かして調整するアナログ的な方法では、焦点が合っており画像が適正な位置で視聴な位置にあわせるのが難しく、またどこが一番適正な位置であるかを自分で判断することも難しい。その結果、HMDの位置調整に試行錯誤してしまい、コンテンツの視聴が妨げられる可能性も非常に高い。
本実施形態では、コンテンツの視聴中においても、ユーザの眼1に関する眼情報に基づいて、自動的にレンズ系22の移動等が実行される。これによりコンテンツの視聴を妨げることなく、例えばユーザが気付かないうちにずれの影響を補正することも可能となる。この結果、非常に高品質な視聴体験を実現することが可能となる。また手動による調整が必要となる場合にも、眼情報に基づいてずれ量を判断し、ユーザに適正な調整方法を通知することも可能である。また一番適正な位置であるか否かを通知することも可能である。すなわちユーザに対して有効なガイドを実行することが可能となる。
ユーザへの通知方法の例を挙げる。例えば自動調整の範囲を超えたずれであると判定された場合、ユーザにずれが生じていることを通知し、調整を促す。これにより、意図しない装着状態が維持されてしまうことを防止することが可能となる。具体的には、ディスプレイ21への画像やテキストの表示、ヘッドフォン部12からの音声出力、バイブレーション機構による基体部10等の振動等を実行する。
例えばコンテンツの視聴中においては、画像がぼやけてしまうと、ユーザは当該ぼやけに気付く。従ってストレートにユーザに伝えることも有効である。例えばぼやけていても見えるぐらいの大きさのテキスト、ぼやけていても認識可能な画像、記号、マーク等を用いて、通知(Notification)や警報(Alert)を表示する。あるいは音声や上記したバーブレーション等により、通知や警報を実行する。
ユーザの視聴を妨げないように自然に通知をすることも重要である。例えばあまり強調的ではない短い通知が実行される。またはセンサ部31によるセンサ結果からユーザの状態を判定して、通知方法に反映させることも可能である。例えば発汗や脳波等の状態に基づいて、ユーザが通知に気付いているかどうかを判定する。ユーザが通知に気付いていない場合に、段階的に通知を強調する、あるいは他の通知方法を実行する。例えば音声で通知しても気付かない場合には、バイブレーション機能を併用する、等である。
通知に全く気付いていないと判定される場合、そもそもコンテンツを視聴していない可能性も考えられる。この場合、例えばユーザの覚醒度を測定し、その測定結果に基づいて通知方法を適宜変更させる。例えば覚醒させるために通知を強調する、反対にコンテンツをオフする、HMD100自体の電源をオフする等の処理が考えられる。
HMD100が左右にずれていると判定された場合、コンテンツを利用してユーザに瞬間的に頭部を動かすようにガイドし、ずれを直すといったことも可能である。例えば音響を利用して、右耳から左耳へすばやく音を移動させる。またはディスプレイ21に左右にすばやく移動する画像を表示させる。このコンテンツにより何かが画面上を動いたとユーザに感じさせ、ユーザはその何かを追うために瞬間的に頭部を動かす。これにより頭部の動きをガイドすることも可能である。さらに音響と画像移動の両方を利用して、ユーザに瞬間的に頭部を動かすようにガイドすることも可能である。
装着バンド部11の保持力を変化させて、HMD100のずれを直すことも可能である。例えばユーザからの所定のボタン操作、頭部の移動(加速度の付与)、音声入力をトリガーとして、装着バンド部11の片方側を緩めて、反対側を閉めることで、HMD100自身全体が移動し、正常な位置に戻すといったことも可能である。
図11は、HMD100により実行可能な他の処理の概要を示すフローチャートである。ステップ501に示すように、ユーザの状態、表示されるコンテンツの内容、視聴時間に関する情報が取得される。そしてステップ502に示すように、これらの情報に基づいて、視聴状態の変更及び所定の通知が実行される。
すなわち眼情報とは異なる情報に基づいて、画像表示機構20の少なくとも一部を移動させる処理等が実行されてもよい。もちろんこれらの情報と、眼情報とが組み合わされて、視聴状態の変更及び所定の通知が実行されてもよい。これにより高品質な視聴体験を実現することが可能となる。
また上記では、ずれが発生した場合に、初期状態に近づくように、レンズ系22等が移動された。この場合に限定されず、画像表示機構20に対するユーザの眼1の状態が、初期状態とは異なる他の状態となるように、ディスプレイ21やレンズ系22の移動が実行されてもよい。すなわちあえて焦点がぼやけるような視聴状態への変更や、画像の表示位置がずれるように視聴状態が変更されてもよい。
例えばコンテンツがゲーム等である場合に、水中や粉じん環境ではピントをわざとはずして視界をぼかすといったことも可能である。例えばレースゲームの前方走行車の粉じんがかかった場合や、水中にダイビングした場合等である。またVR内にて適切なアイテム(例えばメガネ等)の付け外しに応じて視界のぼやけ具合を調整することも可能である。
またコンテンツ中のアバターの体調や覚醒状態に応じて視界のぼやけ具合を調整することも可能である。例えばユーザの状態をセンシングしてアバターに反映させるといったことや、コンテンツ内のアバターの状態に応じてぼやけ具合を調整するといったことも可能である。例えば格闘ゲームやシューティングゲーム等において、ダメージやひん死の状態のとき、視界をぼやけさせる等である。右眼を殴られた場合は、右眼のみぼやけさせることも可能である。また眠気が強い状態である場合に、視界ぼやけさせるといったことも可能である。
このようにコンテンツの内容に応じて視聴状態を変更させることで、コンテンツの臨場感を向上させることが可能となり、高品質な視聴体験を実現することが可能となる。
またメディカルの分野等において、老眼、近視、乱視、視聴各障害者の視野体験等を実現することも可能である。例えばHMD100を装着するユーザが、体験したい視野を選択すると、その視野が実現されるように、眼情報に基づいてレンズ系22等が移動される。例えば近視の場合は焦点距離が近くなるように移動され、遠視の場合は焦点距離が遠くなるようにレンズ系22等が移動される。老眼の場合は、物体の距離に応じて適宜移動される。なおレンズ系22等を移動することで、HMD100を装着する際の視度を自動的に調整することも可能である。
また本技術を、日常使用されるメガネへ適用することも可能である。例えば眼情報に基づいてメガネに設けられたレンズ等を移動させることで、矯正度数や視野等の変更を精度よく実行することが可能である。
コンテンツの視聴時間に基づいて、視聴状態が変更される。例えば規定時間を超えてコンテンツを利用した場合には、視界をぼかして、ユーザに疲れを自覚してもらい休憩を促すことが可能となる。例えばコンテンツの設定時間(90分等)に近づくにつれて、徐々に近視状態にして(焦点距離を近くして)、疲れ眼を実感させる。これはテレビの電力モードに相当するとも言える。またこの際に、生体情報(脳波、脈拍、血流等)により、疲れているか否かがを判断することも可能である。またディスプレイ21の隅に「疲れ眼モードに入ります」といった表示をすることも可能である。また例えば規定時間を超えた利用があった場合や生体情報により疲れていると判断された場合等に、疲れ眼を癒すための画像や音楽等のコンテンツをユーザに提供することも可能である。
ユーザの状態に関する状態情報に基づいて、視聴状態が変更される。上記した覚醒度に応じた処理や、生体情報に応じた処理である。例えばHMD100を装着するユーザの体調をモニタリングする機構等が備えられている場合は、そのモニタリング結果を利用して表示状態が変更されてもよい。例えば生体情報によりユーザが疲れていると判断された場合、徐々に近視状態にして(焦点距離を近くして)、疲れ眼を実感させる。またディスプレイ21の隅に「疲れ眼モードに入ります」といった表示をすることも可能である。また疲れ眼を癒すための画像や音楽等のコンテンツをユーザに提供することも可能である。
図3に示す信頼度判定部49について説明する。信頼度判定部49は、ディスプレイ21や左右のレンズ系22に、初期状態からの移動量(補正量)に基づいて、生体センサ38により検出結果の信頼度を判定する。例えばレンズ系22の移動量が大きいほど、HMD100が頭部に対してずれていると判定される。すなわち脳波センサや筋電センサ等の検出端子部が、体の所定の位置に十分に接触していない可能性が高いとして、検出される信号の信頼度を低く設定する。これにより生体センサ38の検出結果を有効に利用することが可能となる。
例えば9軸センサ36によりHMD100の揺れ等を検出することが可能であるが、生体センサ38の検出端子部が皮膚に十分に接触しているか否かは判定できない。本実施形態では、機構駆動部45による画像表示機構20の少なくとも一部に対する移動量に基づいて、検出端子部が皮膚に十分に接触しているか否かを判定し、検出結果の信頼度を判定することが可能である。
なお、例えば腕時計、ネックレス、指輪等の形態からなる他のウェアラブルデバイスの生体センサから得られる生体情報や、他のウェアラブルデバイスにて判定される生体センサの皮膚への接触に関する判定結果に基づいて、生体センサ38の検出結果の信頼度が判定されてもよい。もちろんウェアラブルデバイスに分類されない他の端末により取得される生体情報等に基づいて、生体センサ38の検出結果の信頼度が判定されてもよい。
眼情報と、他の情報とが組み合わされて利用される場合は、利用される情報に重み付けが付されてもよい。重み付けの方法は限定されず、任意に設定されてよい。
<その他の実施形態>
本技術は、以上説明した実施形態に限定されず、他の種々の実施形態を実現することができる。
上記では、画像表示機構20の少なくとも一部を移動させる例として、ディスプレイ21、左眼用レンズ系22a、及び右眼用レンズ系22bの各々を移動可能な場合を例に挙げた。これに限定されず、ディスプレイ21のみが移動可能な場合や、左右のレンズ系22のみが移動可能な場合もあり得る。また画像表示機構20を構成する他の部材が移動可能であってもよい。また視聴状態の変更として、画像表示機構20の一部の移動のみが可能な場合もあり得る。
機構駆動部45によりレンズ系22等が頻繁に移動される場合には、装着バンド部11の締め具合が緩いと判定されてもよい。締め具合が緩いと判定された場合は、例えば眼情報に基づいて装着バンド部11が自動的に調整される。あるいは装着バンド部11の調整を促す旨の通知が実行される。
本技術を利用することで、あえて装着バンド部11の締め具合を緩くした状態での、コンテンツの視聴も可能となる。例えば図9に示す処理を高速で実行することで、締め具合がゆるいことによるHMD100のずれの影響を防止することが可能である。これにより装着バンド部11をきつく締める必要がなくなり、ユーザへの装着負荷を十分に低減することが可能となる。また装着バンド部11を細かく調整するための機構が不要となるので、装置の簡素化、小型化、軽量化が実現される。また装着の手間を軽減される。
またピント調整にかかる時間、すなわち初期状態に戻すまでの時間に基づいて、駆動機構26等の経年劣化等を推定することも可能である。
図12は、他の実施形態に係るHMDの外観を示す斜視図である。HMD200は、透過型のディスプレイを備えたメガネ型の装置であり、ユーザの頭部に装着されて使用される。HMD200は、フレーム210、左右のレンズ222a及び222b、左眼用ディスプレイ221a及び右眼用ディスプレイ221b、左眼用カメラ223a及び右眼用カメラ223bを有する。またフレーム210の内部や所定の位置には、図3に示すのと略同様のコントローラやセンサ部等が構成されている。
左右のレンズ222a及び222bは、ユーザの左眼及び右眼の前方にそれぞれ配置される。左眼用及び右眼用ディスプレイ221a及び221bは、ユーザの視野を覆うように、左右のレンズ222a及び222bにそれぞれ設けられる。
左眼用及び右眼用ディスプレイ221a及び221bは、透過型のディスプレイであり、左眼及び右眼用の画像等がそれぞれ表示される。HMD200を装着するユーザは、現実の景色を視認すると同時に、各ディスプレイに表示される画像を視認することが可能となる。これにより、ユーザは拡張現実感(AR)等を体験することが可能となる。
なお、左眼用及び右眼用ディスプレイ221a及び221bの外側(ユーザの眼とは反対の側)に、調光素子(図示省略)等が設けられてもよい。調光素子は、当該素子を透過する光の量を調節可能な素子である。調光素子を設けることで、例えば各ディスプレイを透過してユーザに視認される現実の景色を規制し、各ディスプレイに表示される画像を強調してユーザに視認させることが可能である。これにより、ユーザは仮想現実(VR)等を体験することが可能となる。
左眼用及び右眼用ディスプレイ221a及び221bとしては、例えば透過型の有機ELディスプレイやLCD(Liquid Crystal Display、液晶表示素子)ディスプレイ等が用いられる。また調光素子としては、例えば透過率を電気的に制御可能な調光ガラス、調光シート、及び液晶シャッター等が用いられる。本実施形態にでは、左右のレンズ222a及び222bと、左眼用及び右眼用ディスプレイ221a及び221bにより、画像表示機構が実現される。
左眼用及び右眼用カメラ223a及び223bは、ユーザの左眼及び右眼を撮像可能な任意の位置に設けられる。例えば左眼用及び右眼用カメラ223a及び223bにより撮影された左眼及び右眼の画像に基づいて、ユーザの眼に関する眼情報が取得される。
図12に示すHMD200では、フレーム210に対して、左右のレンズ222a及び222bの各々が移動可能に構成され、駆動機構により移動される。またフレーム210自体も移動可能に構成され、保持力が変更可能となっている。眼情報に基づいて、左右のレンズ222a及び222bの各々の、位置や傾きを適宜変更することで、上記の実施形態と同様に、高品質な視聴体験を実現することが可能である。
このようにARグラス等の透過型のHMDにも、本技術は適用可能である。例えばARの体験時においては、眼情報に基づいて透過型ディスプレイに表示されるコンテンツ画像の表示位置を変更することで、現実の世界とコンテンツ画像とのずれを高精度に補正することも可能となる。すなわちARでは、現実の景色に重畳される仮想世界の座標軸を高精度に変更することが可能となる。
この点に着目すると、VRでは、主にコンテンツに対する焦点のずれを直すのに有効であり、ARでは、主にコンテンツの位置のずれを直すことに有効であるといえる。もちろんそのような目的に限定される訳ではない。
本技術を適用可能な分野は限定されない。例えばゲーム、医療(手術用のHMD等)、モータスポーツ(ドライバーのヘルメット等)、ゴルフ等のスポーツ、工場等における検査等、
作業中のユーザの視界に情報を表示させる任意の分野に、本技術は適用可能である。
上記では、本技術に係る情報処理装置の一実施形態として、画像表示装置であるHMDを例に挙げた。しかしながら、HMDとは別に構成され、有線又は無線を介してHMDに接続される任意のコンピュータにより、本技術に係る情報処理装置が実現されてもよい。例えばクラウドサーバにより、本技術に係る情報処理方法が実行されてもよい。あるいはHMDと他のコンピュータとが連動して、本技術に係る情報処理方法が実行されてもよい。
すなわち本技術に係る情報処理方法、及びプログラムは、単体のコンピュータにより構成されたコンピュータシステムのみならず、複数のコンピュータが連動して動作するコンピュータシステムにおいても実行可能である。なお本開示において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれもシステムである。
コンピュータシステムによる本技術に係る情報処理方法、及びプログラムの実行は、例えば眼情報の取得や画像表示機構の少なくとも一部の移動の制御等が、単体のコンピュータにより実行される場合、及び各処理が異なるコンピュータにより実行される場合の両方を含む。また所定のコンピュータによる各処理の実行は、当該処理の一部または全部を他のコンピュータに実行させその結果を取得することを含む。
すなわち本技術に係る情報処理方法及びプログラムは、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成にも適用することが可能である。
以上説明した本技術に係る特徴部分のうち、少なくとも2つの特徴部分を組み合わせることも可能である。すなわち各実施形態で説明した種々の特徴部分は、各実施形態の区別なく、任意に組み合わされてもよい。また上記で記載した種々の効果は、あくまで例示であって限定されるものではなく、また他の効果が発揮されてもよい。
なお、本技術は以下のような構成も採ることができる。
(1)ユーザの眼に関する眼情報を取得する取得部と、
前記取得された眼情報に基づいて、画像光を出射し前記ユーザの眼に導く画像表示機構の少なくとも一部を移動させる移動部と
を備える情報処理装置。
(2)前記画像表示機構は、前記画像光を出射するディスプレイと、前記ディスプレイから出射された前記画像光を前記ユーザの眼に導くレンズ系とを有し、
前記移動部は、前記ディスプレイ及び前記レンズ系の少なくとも一方を移動させる
(1)に記載の情報処理装置。
(3)前記眼情報は、前記ユーザの眼を撮影した眼画像を含む
(1)又は(2)に記載の情報処理装置。
(4)前記眼情報は、前記眼画像における前記ユーザの眼の形状、サイズ、位置、傾き、及び虹彩パターンの少なくとも1つを含む
(3)に記載の情報処理装置。
(5)前記画像表示機構は、前記ユーザが装着可能なHMD(Head Mount Display)に設けられ、
前記眼情報は、前記HMDの撮像機構により前記ユーザの眼を撮影した前記眼画像を含む
(3)又は(4)に記載の情報処理装置。
(6)前記画像表示機構に対して前記ユーザの眼が所定の状態である場合の前記眼情報である基準眼情報を記憶する記憶部をさらに備え、
前記移動部は、前記取得された眼情報及び前記基準眼情報に基づいて、前記画像表示機構の少なくとも一部を移動させる
(1)から(5)のうちいずれか1つに記載の情報処理装置。
(7)前記所定の状態は、前記画像表示機構により表示される基準画像が、前記眼画像内で前記ユーザの眼に対して所定のサイズ及び位置にて配置される状態を含む
(6)に記載の情報処理装置。
(8)前記眼情報は、前記ユーザの眼を撮影した眼画像を含み、
前記基準眼情報は、前記画像表示機構に対して前記ユーザの眼が前記所定の状態である場合に、前記ユーザの眼を撮影した基準眼画像を含み、
前記移動部は、前記眼画像と前記基準眼画像との差分に基づいて、前記画像表示機構の少なくとも一部を移動させる
(6)又は(7)に記載の情報処理装置。
(9)前記移動部は、前記画像表示機構に対する前記ユーザの眼の状態が、前記所定の状態に近づくように、前記画像表示機構の少なくとも一部を移動させる
(8)に記載の情報処理装置。
(10)前記移動部は、前記画像表示機構に対する前記ユーザの眼の状態が、前記所定の状態とは異なる他の状態となるように、前記画像表示機構の少なくとも一部を移動させる
(8)又は(9)に記載の情報処理装置。
(11)前記画像表示機構による画像表示を制御する表示制御部をさらに備え、
前記表示制御部は、前記取得された眼情報に基づいて、前記画像表示機構により表示される画像の表示位置を移動させる
(1)から(10)のうちいずれか1つに記載の情報処理装置。
(12)前記移動部は、前記画像表示機構により表示されるコンテンツの内容に基づいて、前記画像表示機構の少なくとも一部を移動させる
(1)から(11)のうちいずれか1つに記載の情報処理装置。
(13)前記移動部は、前記ユーザの視聴時間に基づいて、前記画像表示機構の少なくとも一部を移動させる
(1)から(12)のうちいずれか1つに記載の情報処理装置。
(14) 前記ユーザの状態に関する状態情報を取得する状態取得部をさらに備え、
前記移動部は、前記取得された状態情報に基づいて、前記画像表示機構の少なくとも一部を移動させる
(1)から(13)のうちいずれか1つに記載の情報処理装置。
(15)前記画像表示機構は、前記ユーザが装着可能なHMD(Head Mount Display)に設けられ、
前記情報処理装置は、さらに、前記移動部による前記画像表示機構の少なくとも一部に対する移動量に基づいて、生体センサによる検出結果の信頼度を判定する判定部を備える
(1)から(14)のうちいずれか1つに記載の情報処理装置。
(16)前記画像表示機構は、前記ユーザが装着可能なHMD(Head Mount Display)に設けられ、
前記情報処理装置は、さらに、前記取得された眼情報に基づいて、前記HMDの装着状態を制御することが可能な装着状態制御部を備える
(1)から(15)のうちいずれか1つに記載の情報処理装置。
(17)前記取得された眼情報に基づいて、前記ユーザに所定の情報を通知する通知部をさらに備える
(1)から(16)のうちいずれか1つに記載の情報処理装置。
(18)前記眼情報は、前記ユーザの左眼を撮影した左眼画像、及び前記ユーザの右眼を撮影した右眼画像を含み、
前記移動部は、前記左眼画像又は前記右眼画像に基づいて、前記画像表示機構の少なくとも一部を移動させる
(1)から(17)のうちいずれか1つに記載の情報処理装置。
(19)ユーザの眼に関する眼情報を取得し、
前記取得された眼情報に基づいて、画像光を出射し前記ユーザの眼に導く画像表示機構の少なくとも一部を移動させる
ことをコンピュータシステムが実行する情報処理方法。
(20)ユーザの眼に関する眼情報を取得するステップと、
前記取得された眼情報に基づいて、画像光を出射し前記ユーザの眼に導く画像表示機構の少なくとも一部を移動させるステップと
をコンピュータシステムに実行させるプログラム。
1(1a、1b)…ユーザの眼
11…装着バンド部
12…ディスプレイ
13…ディスプレイユニット
15…撮像機構
17…側頭バンド
18…頭頂バンド
20…画像表示機構
21…ディスプレイ
22(22a、22b)…レンズ系
23a、223a…左眼用カメラ
23b、223b…右眼用カメラ
25…バンド調整機構
26…駆動機構
30…記憶部
31…センサ部
32…コントローラ
38…生体センサ
55…眼画像
56…眼領域
57…長軸
60…基準画像
100、200…HMD
221a…左眼用ディスプレイ
221b…右眼用ディスプレイ
222a…左レンズ
222b…右レンズ

Claims (20)

  1. ユーザの眼に関する眼情報を取得する取得部と、
    前記取得された眼情報に基づいて、画像光を出射し前記ユーザの眼に導く画像表示機構の少なくとも一部を移動させる移動部と
    を備える情報処理装置。
  2. 前記画像表示機構は、前記画像光を出射するディスプレイと、前記ディスプレイから出射された前記画像光を前記ユーザの眼に導くレンズ系とを有し、
    前記移動部は、前記ディスプレイ及び前記レンズ系の少なくとも一方を移動させる
    請求項1に記載の情報処理装置。
  3. 前記眼情報は、前記ユーザの眼を撮影した眼画像を含む
    請求項1に記載の情報処理装置。
  4. 前記眼情報は、前記眼画像における前記ユーザの眼の形状、サイズ、位置、傾き、及び虹彩パターンの少なくとも1つを含む
    請求項3に記載の情報処理装置。
  5. 前記画像表示機構は、前記ユーザが装着可能なHMD(Head Mount Display)に設けられ、
    前記眼情報は、前記HMDの撮像機構により前記ユーザの眼を撮影した前記眼画像を含む
    請求項3に記載の情報処理装置。
  6. 前記画像表示機構に対して前記ユーザの眼が所定の状態である場合の前記眼情報である基準眼情報を記憶する記憶部をさらに備え、
    前記移動部は、前記取得された眼情報及び前記基準眼情報に基づいて、前記画像表示機構の少なくとも一部を移動させる
    請求項1に記載の情報処理装置。
  7. 前記所定の状態は、前記画像表示機構により表示される基準画像が、前記眼画像内で前記ユーザの眼に対して所定のサイズ及び位置にて配置される状態を含む
    請求項6に記載の情報処理装置。
  8. 前記眼情報は、前記ユーザの眼を撮影した眼画像を含み、
    前記基準眼情報は、前記画像表示機構に対して前記ユーザの眼が前記所定の状態である場合に、前記ユーザの眼を撮影した基準眼画像を含み、
    前記移動部は、前記眼画像と前記基準眼画像との差分に基づいて、前記画像表示機構の少なくとも一部を移動させる
    請求項6に記載の情報処理装置。
  9. 前記移動部は、前記画像表示機構に対する前記ユーザの眼の状態が、前記所定の状態に近づくように、前記画像表示機構の少なくとも一部を移動させる
    請求項8に記載の情報処理装置。
  10. 前記移動部は、前記画像表示機構に対する前記ユーザの眼の状態が、前記所定の状態とは異なる他の状態となるように、前記画像表示機構の少なくとも一部を移動させる
    請求項8に記載の情報処理装置。
  11. 前記画像表示機構による画像表示を制御する表示制御部をさらに備え、
    前記表示制御部は、前記取得された眼情報に基づいて、前記画像表示機構により表示される画像の表示位置を移動させる
    請求項1に記載の情報処理装置。
  12. 前記移動部は、前記画像表示機構により表示されるコンテンツの内容に基づいて、前記画像表示機構の少なくとも一部を移動させる
    請求項1に記載の情報処理装置。
  13. 前記移動部は、前記ユーザの視聴時間に基づいて、前記画像表示機構の少なくとも一部を移動させる
    請求項1に記載の情報処理装置。
  14. 前記ユーザの状態に関する状態情報を取得する状態取得部をさらに備え、
    前記移動部は、前記取得された状態情報に基づいて、前記画像表示機構の少なくとも一部を移動させる
    請求項1に記載の情報処理装置。
  15. 前記画像表示機構は、前記ユーザが装着可能なHMD(Head Mount Display)に設けられ、
    前記情報処理装置は、さらに、前記移動部による前記画像表示機構の少なくとも一部に対する移動量に基づいて、生体センサによる検出結果の信頼度を判定する判定部を備える
    請求項1に記載の情報処理装置。
  16. 前記画像表示機構は、前記ユーザが装着可能なHMD(Head Mount Display)に設けられ、
    前記情報処理装置は、さらに、前記取得された眼情報に基づいて、前記HMDの装着状態を制御することが可能な装着状態制御部を備える
    請求項1に記載の情報処理装置。
  17. 前記取得された眼情報に基づいて、前記ユーザに所定の情報を通知する通知部をさらに備える
    請求項1に記載の情報処理装置。
  18. 前記眼情報は、前記ユーザの左眼を撮影した左眼画像、及び前記ユーザの右眼を撮影した右眼画像を含み、
    前記移動部は、前記左眼画像又は前記右眼画像に基づいて、前記画像表示機構の少なくとも一部を移動させる
    請求項1に記載の情報処理装置。
  19. ユーザの眼に関する眼情報を取得し、
    前記取得された眼情報に基づいて、画像光を出射し前記ユーザの眼に導く画像表示機構の少なくとも一部を移動させる
    ことをコンピュータシステムが実行する情報処理方法。
  20. ユーザの眼に関する眼情報を取得するステップと、
    前記取得された眼情報に基づいて、画像光を出射し前記ユーザの眼に導く画像表示機構の少なくとも一部を移動させるステップと
    をコンピュータシステムに実行させるプログラム。
JP2017199080A 2017-10-13 2017-10-13 情報処理装置、情報処理方法、及びプログラム Pending JP2019074582A (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2017199080A JP2019074582A (ja) 2017-10-13 2017-10-13 情報処理装置、情報処理方法、及びプログラム
US16/753,880 US11157078B2 (en) 2017-10-13 2018-08-17 Information processing apparatus, information processing method, and program
EP18865388.5A EP3697086A4 (en) 2017-10-13 2018-08-17 INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD AND PROGRAM
CN201880065099.XA CN111213375B (zh) 2017-10-13 2018-08-17 信息处理装置、信息处理方法以及程序
PCT/JP2018/030554 WO2019073689A1 (ja) 2017-10-13 2018-08-17 情報処理装置、情報処理方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017199080A JP2019074582A (ja) 2017-10-13 2017-10-13 情報処理装置、情報処理方法、及びプログラム

Publications (1)

Publication Number Publication Date
JP2019074582A true JP2019074582A (ja) 2019-05-16

Family

ID=66101352

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017199080A Pending JP2019074582A (ja) 2017-10-13 2017-10-13 情報処理装置、情報処理方法、及びプログラム

Country Status (5)

Country Link
US (1) US11157078B2 (ja)
EP (1) EP3697086A4 (ja)
JP (1) JP2019074582A (ja)
CN (1) CN111213375B (ja)
WO (1) WO2019073689A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112241068A (zh) * 2019-07-18 2021-01-19 三星电子株式会社 能够多深度表达的图像显示装置
CN114280778A (zh) * 2021-11-24 2022-04-05 歌尔光学科技有限公司 一种智能眼镜及其像距调节方法
TWI828418B (zh) * 2022-11-11 2024-01-01 宏達國際電子股份有限公司 頭戴式顯示裝置與調整模組
CN117452644A (zh) * 2023-11-01 2024-01-26 华瀚智盛(北京)科技有限公司 一种头戴设备

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0749464A (ja) 1993-08-03 1995-02-21 Keibunshiya:Kk 頭部搭載型ディスプレイ装置
JPH07154829A (ja) 1993-11-25 1995-06-16 Matsushita Electric Ind Co Ltd 眼鏡型映像表示装置
JP3348956B2 (ja) 1994-03-24 2002-11-20 ソニー株式会社 表示装置
JP2000131643A (ja) 1998-10-28 2000-05-12 Sony Corp 映像表示装置
JP2001189902A (ja) 1999-12-28 2001-07-10 Nec Corp ヘッドマウンテッドディスプレイ制御方法及びヘッドマウンテッドディスプレイ装置
JP2002031776A (ja) 2000-07-14 2002-01-31 Canon Inc 表示装置
JP2004304296A (ja) 2003-03-28 2004-10-28 Nikon Corp ヘッドマウントディスプレイ
JP4298455B2 (ja) * 2003-09-30 2009-07-22 キヤノン株式会社 走査型画像表示装置
JP4517664B2 (ja) 2004-02-12 2010-08-04 ソニー株式会社 画像処理装置および方法、プログラム、並びに記録媒体
JP4560368B2 (ja) * 2004-10-08 2010-10-13 キヤノン株式会社 眼検出装置および画像表示装置
JP2012194501A (ja) * 2011-03-18 2012-10-11 Brother Ind Ltd ヘッドマウントディスプレイ及び虚像提示方法
US20150097772A1 (en) * 2012-01-06 2015-04-09 Thad Eugene Starner Gaze Signal Based on Physical Characteristics of the Eye
US9122321B2 (en) * 2012-05-04 2015-09-01 Microsoft Technology Licensing, Llc Collaboration environment using see through displays
JP2014106445A (ja) * 2012-11-29 2014-06-09 Toshiba Corp 電子機器および表示制御方法
US10345903B2 (en) * 2013-07-30 2019-07-09 Microsoft Technology Licensing, Llc Feedback for optic positioning in display devices
US20150145977A1 (en) * 2013-11-22 2015-05-28 Samsung Display Co., Ltd. Compensation technique for viewer position in autostereoscopic displays
WO2016113951A1 (ja) * 2015-01-15 2016-07-21 株式会社ソニー・インタラクティブエンタテインメント 頭部装着型表示装置、及び映像表示システム
JP2016191845A (ja) 2015-03-31 2016-11-10 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP6572600B2 (ja) * 2015-04-09 2019-09-11 セイコーエプソン株式会社 情報処理装置、情報処理装置の制御方法、および、コンピュータープログラム
EP3764201A4 (en) * 2018-03-05 2021-12-08 Wacom Co., Ltd. INPUT DEVICE WITH ELECTRONIC PEN

Also Published As

Publication number Publication date
WO2019073689A1 (ja) 2019-04-18
EP3697086A4 (en) 2020-12-09
EP3697086A1 (en) 2020-08-19
US11157078B2 (en) 2021-10-26
CN111213375A (zh) 2020-05-29
CN111213375B (zh) 2022-08-05
US20200285310A1 (en) 2020-09-10

Similar Documents

Publication Publication Date Title
JP7177213B2 (ja) 視線追跡情報に基づく画像領域内の適応パラメータ
US11061240B2 (en) Head-mountable apparatus and methods
US10231614B2 (en) Systems and methods for using virtual reality, augmented reality, and/or a synthetic 3-dimensional information for the measurement of human ocular performance
JP5580855B2 (ja) 障害物回避装置および障害物回避方法
CA2939928C (en) Apparatus and method for improving, augmenting or enhancing vision
US8971570B1 (en) Dual LED usage for glint detection
JP6339239B2 (ja) 頭部装着型表示装置、及び映像表示システム
US20160156850A1 (en) Methods and Apparatus for Vision Enhancement
WO2019073689A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP6378781B2 (ja) 頭部装着型表示装置、及び映像表示システム
JP6518578B2 (ja) 表示制御装置及び表示制御方法
JP7388349B2 (ja) 情報処理装置、情報処理方法、及びプログラム
US10819898B1 (en) Imaging device with field-of-view shift control
KR20220148921A (ko) 근육 센서들을 사용하여 안면 표정을 결정하는 안경류
JP2008256946A (ja) 画像表示装置のための酔い防止装置
TW201814356A (zh) 頭戴顯示裝置與其鏡片位置調整方法
US20160091717A1 (en) Head-mounted display system and operation method thereof
US11743447B2 (en) Gaze tracking apparatus and systems
JP2016134668A (ja) 電子眼鏡および電子眼鏡の制御方法
JP2017191546A (ja) 医療用ヘッドマウントディスプレイ、医療用ヘッドマウントディスプレイのプログラムおよび医療用ヘッドマウントディスプレイの制御方法
CN113534949A (zh) 头戴式显示设备及其控制方法
JP6638325B2 (ja) 表示装置、及び、表示装置の制御方法
JP2017091190A (ja) 画像処理装置、画像処理方法およびプログラム
JP6103743B2 (ja) ディスプレイ装置
US20230308753A1 (en) Camera system for focusing on and tracking objects