JP2019502971A - ヘッドマウントディスプレイの画面上でコンテンツの配置を最適化する方法 - Google Patents

ヘッドマウントディスプレイの画面上でコンテンツの配置を最適化する方法 Download PDF

Info

Publication number
JP2019502971A
JP2019502971A JP2018516174A JP2018516174A JP2019502971A JP 2019502971 A JP2019502971 A JP 2019502971A JP 2018516174 A JP2018516174 A JP 2018516174A JP 2018516174 A JP2018516174 A JP 2018516174A JP 2019502971 A JP2019502971 A JP 2019502971A
Authority
JP
Japan
Prior art keywords
user
hmd
offset
scene
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018516174A
Other languages
English (en)
Other versions
JP6548821B2 (ja
Inventor
オスマン、スティーヴン
マークス、リチャード
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Publication of JP2019502971A publication Critical patent/JP2019502971A/ja
Application granted granted Critical
Publication of JP6548821B2 publication Critical patent/JP6548821B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/38Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C7/00Optical parts
    • G02C7/02Lenses; Lens systems ; Methods of designing lenses
    • G02C7/06Lenses; Lens systems ; Methods of designing lenses bifocal; multifocal ; progressive
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C7/00Optical parts
    • G02C7/02Lenses; Lens systems ; Methods of designing lenses
    • G02C7/08Auxiliary lenses; Arrangements for varying focal length
    • G02C7/086Auxiliary lenses located directly on a main spectacle lens or in the immediate vicinity of main spectacles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0181Adaptation to the pilot/driver
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0693Calibration of display systems
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Optics & Photonics (AREA)
  • Ophthalmology & Optometry (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computer Graphics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【解決手段】ユーザの頭の傾きを補正するために、対話型HMDセッション中にユーザに表示されるコンテンツを調整するシステム及び方法。ユーザの頭の傾きにより、表示コンテンツは、ユーザがHMDの画面で快適に視聴できる領域からオフセットして表示されることになる。オフセットは多数の方法で決定され、次いで表示画像は、オフセットを低減するか、または実質的に排除するように調整される。調整は、起立、着座、リクライニング、横になること等、対話型HMDセッション中に起こり得るユーザの様々な姿勢に対して補正することができる。ユーザの頭の傾きはユーザの体勢、体形により発生するか、またはユーザが意図せず自分の頭を傾けてしまう原因となる矯正レンズにより発生することがある。【選択図】図5A

Description

本開示は、概して、仮想環境に関するものであり、より詳細には、ユーザの視線方向の検出を基に、及び/または矯正レンズを着用したユーザの視線方向を基に、ヘッドマウントディスプレイ(HMD)の画面上でコンテンツの配置を最適化する方法及びシステムに関する。
人間とコンピュータとの対話分野において急成長している技術の1つに、種々のヘッドマウントディスプレイ(HMD)がある。HMDはユーザの頭に装着されてよく、ユーザの片方または両方の目の前に1つまたは2つのディスプレイを有する。この種のディスプレイには仮想現実のシミュレーションを伴う商業的用途が複数あり、ビデオゲーム、医薬、スポーツ訓練、エンターテイメント及びその他の用途が含まれる。ゲーム分野では、これらのディスプレイを使用して、例えば、3次元(3D)の仮想ゲーム世界をレンダリングすることがある。
HMDの分野はこれまでに大きく発展してきたが、HMDに提示される仮想環境に仮想オブジェクトをレンダリングすることによって実際のユーザ対話に物理的な現実性をもたらすには、さらなる技術の発展が必要である。
この点に関し、以下の実施形態が提案される。
広義には、本開示は、HMDを装着しているユーザの頭の傾きを補正するために、HMDの画面上に表示される画像を動的に調整するシステム及び方法を提供することによって、これらのニーズを満たす。記載の通り、頭の傾きは、ユーザが矯正眼鏡または2焦点の眼鏡を装着していること、あるいはユーザの視聴姿勢に起因している可能性がある。種々の例では、ユーザが自分の頭を傾けて直接見るとき、ユーザは、自分の矯正眼鏡の2焦点ラインを通じて直接的に見ることを避けるためにそうしていることがある。いくつかの場合では、ユーザは2焦点ラインを腸内で回避しているわけではなく、習慣や傾向により、ユーザはなおも自分の頭を(例えば、下に)傾ける傾向を有することがあり、これは眼鏡の2焦点ラインの上部分越しに見ることに似ている。他の場合、ユーザは、自分の頭を上に、さらには横に傾けるか、あるいは頭をあらゆる角度に傾けることがある。1つの構成では、所与のユーザによって行われた頭の傾き量を検出するために較正プロセスを実行することができ、この傾きが、例えばオフセットによって定量化されると、HMDに表示されたコンテンツに対して調整を行うことができ、これにより、傾きが排除されるか、最小化されるかまたは低減され、ゆえに、ユーザにとってより快適な視聴姿勢を提供する。例えば、コンテンツを上、下またはある角度等にシフトすることによってコンテンツを調整する別の利点は、ユーザが特定の(例えば、ゲームまたはアプリケーション内の)コンテンツに焦点を合わせるように求められるとき、ユーザの頭の動きが意図した方位と一致することである。したがって、さらなる正確性がユーザに提供され、特定のコンテンツに焦点を合わせるためにHMDを用いて行われる動きは、ユーザが見たり、相互作用したり、注視したり、または視聴により選択したり、あるいはそれらの組み合わせを行うよう要求される場面内のコンテンツまたはオブジェクトに対してより正確に向けられるようになる。
本開示は、プロセス、装置、システム、コンピュータ可読媒体またはデバイスを含む多数の方法で実施することができることを理解されたい。本開示のいくつかの発明の実施形態を以下に説明する。
1つの実施形態は、レンダリングされてHMD上に表示される複数の仮想現実場面を含む仮想現実環境を生成することができるコンピューティングデバイスに結合されたヘッドマウントディスプレイを含む仮想現実システムを提供する。コンピューティングデバイスは、ユーザ入力デバイスまたはHMDからの入力を受信するための入力デバイスインターフェースを含むことができる。入力デバイスインターフェースは、HMDに表示するコンテンツを選択するための命令を処理する。コンピューティングデバイスはさらに、HMD内の選択されたコンテンツを仮想現実場面の形態にレンダリングする仮想現実空間生成モジュールと、HMD移動モジュールとを含むことができる。HMD移動モジュールは、実空間におけるHMDの動きを追跡するために提供することができる。いくつかの実施形態では、追跡は、HMDに搭載された慣性センサを使用して行うことができる。他の実施形態では、追跡は、例えば、HMD上に配置されたLEDまたは他の指標など、HMDの取得画像を使用して行うことができる。さらに、慣性追跡と画像追跡との両方によって追跡を行うことができる。1つの構成では、実空間におけるHMDの第1の配置及びポーズを識別するために追跡を行うことができる。HMD移動モジュールはさらに、ユーザが対象となる特定のオブジェクト(例えば、場面内のコンテンツ、ターゲットレチクル等)を見ているときに、HMDの第2の配置及びポーズを識別することができる。1つの実施形態では、第1の配置と第2の配置との間のオフセットが特定され、対象となる特定のオブジェクトを見ているときにユーザが行う頭の傾きの補正量を通知する。オフセットを使用すると、場面内でレンダリングされたコンテンツを調整またはシフトできるため、ユーザはオブジェクトを見るために頭を傾ける必要がないか、またはさほど頭を傾ける必要がない。いくつかの実施形態では、オフセットを使用している場面を調整することによって、より相関性の高いコンテンツをユーザに表示することが可能になり、これにより、システムは、ユーザがHMDに表示される特定のコンテンツを見ている時間を知ることができる。
利点は、ユーザが場面内の特定のコンテンツを見ようとしているときに、ユーザの頭の動きが、ユーザが見ようとしている位置またはコンテンツに対応することである。1つの例として、ユーザに特定のコンテンツを見るか注視することを要求するアプリケーションまたはゲームでは、ユーザは自分の頭を動かして特定の位置を見る。ユーザのオフセットを知ることによって、場面内でコンテンツの配置を修正することが可能であり、これにより、対象のコンテンツを正確に視聴したり、見たり、注視したり、または識別したりすることができる。上述の通り、オフセットは較正ステージ中に測定することができ、オフセットはユーザのプロファイルに保存することができる。他の方法では、ユーザがコンテンツと対話している間にオフセットを動的にまたは受動的に測定することができる。例えば、ユーザが特定のコンテンツを正確に見ていないか、または注視していないことをシステムが認識した場合、オフセットのバックグラウンド測定を行うことができる。時間の経過とともに、オフセットが繰り返される場合、ユーザが頭の傾きによるオフセットを実際に有するということを、ある程度の確実性をもって仮定することができる。場面コンテンツにおけるこの調整は技術的な進歩であり、これは、ユーザの自然なポーズまたは頭を傾ける習慣に正確に適合しないHMDシステム、あるいは矯正眼鏡を着用するユーザを考慮しないHMDシステムを提供することを回避する。しかしながら、単に頭を傾ける習慣がある人もいるため、ユーザが頭を傾けることまたはユーザの頭をいくらか傾けて見る習慣は、矯正眼鏡を装着していることのみに起因するわけではないと理解されたい。
1つの実施形態は、ヘッドマウントディスプレイ(HMD)の画面上に表示されたときの場面の配置を最適化する方法を提供する。この方法は、3次元空間でHMDの初期方向を検出することを含むことがあり、HMDの初期方向は、ユーザの快適な視聴配置である。オブジェクトは、HMDの画面上に表示された場面内の選択された位置において場面内でレンダリングされる。ユーザは、表示されたオブジェクトを注意して見るようにプロンプトされ、HMDの指示方向が検出される。初期方向と指示方向との間の3次元空間におけるオフセットを決定することができる。このオフセットは、HMDの画面上に表示される後続場面の配置を調整するために適用することができる。オフセットはさらに、ユーザがHMDを使用しているときに常時、オフセットを呼び出すことができるよう、ユーザのプロファイルに保存することができる。オフセットは、ユーザがHMDを使用している間に、常に監視及び調整することができる。
本開示の他の態様及び利点は、本開示の原理を例として示す添付の図面と併せて、以下の発明を実施するための形態から明らかになるであろう。
本開示は、添付の図面と併せて以下の発明を実施するための形態から容易に理解されるだろう。
開示の実施形態による、ビデオゲームの対話型ゲームプレイのためのシステムを例示する。
開示の実施形態による、HMDを例示する。
ユーザのHMDにビデオゲームコンテンツをレンダリングすることができるクライアントシステムを使用したゲームプレイの1つの例を例示する。
開示の実施形態による、使用中にHMDを装着しているユーザを例示する。
開示の実施形態による、使用中のHMDを例示する。
開示の実施形態による、人間の様々な体勢を例示する。 開示の実施形態による、人間の様々な体勢を例示する。 開示の実施形態による、人間の様々な体勢を例示する。
開示の実施形態による、HMDを装着している人間の様々な体勢を例示する。 開示の実施形態による、HMDを装着している人間の様々な体勢を例示する。
開示の実施形態による、ユーザの目とHMDの画面上に表示されている画像内のレチクルとの間に挿入される矯正レンズを例示する。 開示の実施形態による、ユーザの目とHMDの画面上に表示されている画像内のレチクルとの間に挿入される矯正レンズを例示する。 開示の実施形態による、ユーザの目とHMDの画面上に表示されている画像内のレチクルとの間に挿入される矯正レンズを例示する。 開示の実施形態による、ユーザの目とHMDの画面上に表示されている画像内のレチクルとの間に挿入される矯正レンズを例示する。
開示の実施形態による、HMDの画面上に表示される画像を見ている間にユーザが頭を傾ける様子を例示する。 開示の実施形態による、HMDの画面上に表示される画像を見ている間にユーザが頭を傾ける様子を例示する。
開示の実施形態による、HMDに表示されるレンダリング画像を頭の傾きに対して調整するシステムの簡略化した模式図である。
開示の実施形態による、コンテンツソースの簡略化した模式図である。
開示の実施形態による、HMDに表示される画像を調整するときに行われる動作方法を例示するフローチャートである。
開示の実施形態による、HMDの動きを追跡するときに行われる動作方法を例示するより詳細なフローチャートである。
開示の実施形態による、ヘッドマウントディスプレイの例示的な構成要素を例示する図である。
情報サービスプロバイダアーキテクチャの実施形態を例示する。
ここで、HMDを装着しているユーザの頭の傾きに対して補正するために、HMDの画面上に表示される画像を動的に調整するためのいくつかの実施形態例について説明する。当業者であれば、本明細書に記載された特定の詳細の一部または全てがなくても、本開示が実施され得ることは明らかであろう。
ユーザがHMDを着用すると、ユーザは、頭をわずかに前向きに傾けるなど、1つの方位または別の方位に頭を傾けることが多い。その結果、HMD内に表示している画像は、ユーザの中心視と適切に整合しないことがある。この画像の不整合は、ユーザに眼精疲労を引き起こし、仮想環境とのユーザの対話の精度を低下させる可能性がある。例えば、ユーザは、HMDを使用して、仮想環境内の複雑なデバイスを組み立てる難解なタスクを行うことがある。しかしながら、画像の不整合により、ユーザが複雑なデバイス内で構成要素を常に誤って配置してしまう可能性がある。ユーザの頭の傾きを補正するためにHMD内の画面上に表示される画像を調整する1つの手法は、ユーザの頭の傾きによって引き起こされるオフセットを決定し、次いで、オフセットを補正するために、表示された画像を上、下、片側またはその組み合わせにシフトすることを含む。ユーザの頭の傾きによる画像の不整合を修正することは、ユーザとHMDの仮想環境との間のよりシームレスな対話に繋がる。ユーザの頭の傾きによる画像の不整合を修正することによって、ユーザはさらに、HMDの使用中に複数の異なる頭の傾きを行うことができる。ユーザは、ある特定の方向または傾きで頭を長時間保持すると最終的に不快感及び疲労を感じる可能性があるが、これを行う必要がないため、より快適な使用が可能になる。
図5A〜図11を参照して、頭の傾きの検出及び補正に関連するより詳細な説明を行う。全ての図面を理解するように理解されたいが、特定の実施態様を定義するために、実施形態を種々の構成で組み合わせて組み立ててよい。
図1は、開示の実施形態による、ビデオゲームの対話型ゲームプレイのためのシステムを例示する。ユーザ100は、ヘッドマウントディスプレイ(HMD)102を装着して示される。HMD102は、眼鏡、ゴーグルまたはヘルメットと類似した方法で装着され、ビデオゲームまたは他のコンテンツをユーザ100に対して表示するように構成される。HMD102は、ユーザの目の近傍にあるディスプレイ機構(例えば、光学及びディスプレイ画面)及びHMDに対して配信されるコンテンツの形式を供給することで、没入型の体験をユーザに提供するように構成される。1つの例示では、HMD102は、それぞれのユーザの目に対してディスプレイ領域を提供してよく、これは、ユーザの視野の大部分を占めるか、または全体をも占める。HMD画面は、毎秒約30〜約500フレーム(Hz)のリフレッシュレートを有することができる。1つの実施態様では、HMD画面は、約60または約120Hzの選択可能なリフレッシュレートを有することができる。
1つの実施形態では、HMD102は、コンピュータ106に接続され得る。コンピュータ106への接続122は、有線または無線になり得る。コンピュータ106は、限定されるものではないが、ゲームコンソール、パーソナルコンピュータ、ノートパソコン、タブレットコンピュータ、モバイルデバイス、携帯電話、タブレット、シンクライアント、セットトップボックス、メディアストリームデバイス等を含む、任意の汎用のまたは特定用途のコンピュータであり得る。いくつかの実施形態では、HMD102は、インターネットなどのネットワーク110に直接接続してよく、個別のローカルコンピュータを必要とせずにクラウドゲームが可能になり得る。1つの実施形態では、コンピュータ106は、ビデオゲーム(及び他のデジタルコンテンツ)を実行するように構成されてよく、HMD102によるレンダリングのためにビデオゲームから映像及び音声を出力する。コンピュータ106は、本明細書においてクライアントシステム106とも呼ばれ、これは1つの例では、ビデオゲームコンソールである。
コンピュータ106は、いくつかの実施形態では、ローカルコンピュータまたはリモートコンピュータであってよく、コンピュータは、エミュレーションソフトウェアを実行してよい。クラウドゲームの実施形態では、コンピュータ106は遠隔にあり、データセンタにおいて仮想化され得る複数のコンピューティングサービスによって表されてよく、ゲームシステム/ロジックは、ネットワーク110上でユーザに対して仮想化され分散化され得る。
ユーザ100は、ビデオゲームのための入力を提供するためにコントローラ104を操作してよい。1つの例示では、カメラ108は、ユーザ100が位置する対話型環境の画像を取得するように構成され得る。これらの取得された画像は、ユーザ100、HMD102及びコントローラ104の位置及び動きを判断するために分析され得る。1つの実施形態では、コントローラ104は、その配置/位置及びポーズを判断するために追跡され得る1つの光源(または複数の光源)を含む。追加的に、以下でさらに詳細に記載する通り、HMD102は、ゲームプレイの間に実質的にはリアルタイムでHMD102の配置及びポーズを判断するための指標として追跡され得る1つまたは複数の光源200A〜Kを含んでよい。
カメラ108は、対話型環境から音を取得するために1つまたは複数のマイクを含み得る。マイク配列によって取得された音は、音源の位置を識別するために処理されてよい。識別された位置からの音は、選択的に利用されてよいか、または識別された位置以外からの他の音を排除するために処理されてよい。さらに、カメラ108は、複数の画像取得デバイス(例えば、双眼写真カメラ)、IRカメラ、深度カメラ及びこれらの組み合わせを含むように定義され得る。
いくつかの実施形態では、コンピュータ106は、コンピュータ106の処理するハードウェアにおいてゲームをローカルで実行してよい。ゲームまたはコンテンツは、物理的メディア形態(例えば、デジタルディスク、テープ、カード、サムドライブ、ソリッドステートチップまたはカード等)などの任意の形態で、または、ネットワーク110を介したインターネットからのダウンロードによって、得られ得る。別の実施形態では、コンピュータ106は、クラウドゲームプロバイダ112とのネットワーク上の通信におけるクライアントとして機能する。クラウドゲームプロバイダ112は、ユーザ100によってプレイされているビデオゲームを維持して実行してよい。コンピュータ106は、HMD102、コントローラ104及びカメラ108からクラウドゲームプロバイダ112に入力を伝送し、実行するビデオゲームのゲーム状態を反映するために入力を処理する。映像データ、音声データ及び触覚的フィードバックデータなどの実行中のビデオゲームからの出力は、コンピュータ106に伝送される。コンピュータ106はさらに、伝送前にデータをさらに処理してよく、または関連するデバイスにデータを直接的に伝送してよい。例えば、映像及び音声ストリームは、HMD102に対して提供され、一方で、振動フィードバック命令は、コントローラ104もしくは例えば、手袋、衣服、HMD102などの他の入力デバイスまたはそれらの2つ以上の組み合わせに提供される。
1つの実施形態では、HMD102、コントローラ104及びカメラ108は、それら自体がクラウドゲームプロバイダ112と通信するようにネットワーク110に接続するネットワーク化されたデバイスであってよい。例えば、コンピュータ106は、通常ビデオゲーム処理を実行しないが、ネットワークトラフィックの経路を促す、ルータなどのローカルネットワークデバイスであってよい。HMD102、コントローラ104及びカメラ108によるネットワークへの接続124は、有線または無線であってよい。いくつかの実施形態では、HMD102で実行されるか、またはディスプレイ107上で表示可能なコンテンツは、任意のコンテンツソース120から得られ得る。例示のコンテンツソースは、例えば、ダウンロード可能なコンテンツ及び/またはストリームコンテンツを提供するインターネットウェブサイトを含み得る。いくつかの例では、コンテンツは、映画、ゲーム、静的/動的コンテンツ、写真、ソーシャルメディアコンテンツ、ソーシャルメディアウェブサイト等などの任意の種類のマルチメディアコンテンツを含み得る。
以下により詳細に記載する通り、ユーザ100は、HMD102上でゲームをプレイしてよく、こうしたコンテンツは、没入型3D対話型コンテンツである。HMD102上のコンテンツは、プレイヤーがプレイしている間、ディスプレイ107に対して共有され得る。1つの実施形態では、ディスプレイ107に対して共有されるコンテンツは、ユーザ100の近傍または遠隔の他のユーザがユーザのプレイを共に見ることを可能にし得る。さらに別の実施形態では、ディスプレイ107上でユーザ100のゲームプレイを見ている別のユーザは、プレイヤー100に対話的に参加してよい。例えば、ディスプレイ107上でゲームプレイを見ているユーザは、ゲーム場面内でキャラクターをコントロールし、フィードバックを提供し、社会的な対話を提供し、及び/またはコメント(テキストにより、声により、動作により、ジェスチャにより等)を提供してよく、これは、HMD102を装着していないユーザがユーザ100、ゲームプレイまたはHMD102でレンダリングされたコンテンツと社会的に対話することを可能とする。
図2は、開示の実施形態によるHMD102を例示する。図示の通り、HMD102は、複数の光源200A〜Kを含む(例えば、200K及び200Jは、HMDヘッドバンド210の後部または裏側に向かって配置される)。これらのそれぞれの光源は、特定の形状及び/または配置を有するように構成されてよく、同じまたは異なる色を有するように構成され得る。光源200A、200B、200C及び200Dは、HMD102の前面に配置される。光源200E及び200Fは、HMD102の側面に配置される。さらに光源200G及び200Hは、HMD102の前面及び側面にわたるようにHMD102の角部に配置される。光源は、ユーザがHMD102を使用する対話型環境の取得画像において識別され得ることを理解されたい。
光源の識別及び追跡に基づいて、対話型環境におけるHMD102の配置及びポーズが判断され得る。光源200A〜Kの一部は画像取得デバイスに対するHMD102の特定の配置及びポーズに基づいて視認可能または視認不可能となり得ることもさらに理解されたい。さらに、光源の異なる部分(例えば、光源200G及び200H)は、画像取得デバイスに対するHMD102の配置及びポーズに基づいて画像取得のために露出されてよい。いくつかの実施形態では、慣性センサがHMD102に配置され、光源200A〜Kを必要とすることなく、方向に関するフィードバックを提供する。いくつかの実施形態では、光源及び慣性センサは、配置/運動データの合成及び選択を可能とするように連動する。
1つの実施形態では、光源は、HMD102の現在の状態を近傍の他のものに示すように構成され得る。例えば、光源200A〜Kの一部または全ては、特定の色構成、輝度構成を有するように構成されてよく、点滅し、特定のオン/オフ構成を有し、またはHMD102の現在の状態を示す他の構成を有するように構成されてよい。例として、光源200A〜Kは、ビデオゲームのアクティブなゲームプレイ(一般的に、ゲームのアクティブなタイムライン中またはゲームの場面内で生じるゲームプレイ)中に、案内メニューインタフェースまたはゲーム設定の構成(この間にゲームタイムラインまたは場面は非アクティブになるか、または静止し得る)などのビデオゲームの他の非アクティブなゲームプレイ態様に対して異なる構成を表示するように構成され得る。光源200A〜Kはさらに、ゲームプレイの相対的な輝度レベルを示すように構成されてよい。例えば、光源200A〜Kの輝度、または点滅速度は、ゲームプレイの輝度が増加するときに増加してよい。
HMD102は、追加的に1つまたは複数のマイクを含んでよい。例示の実施形態では、HMD102は、HMD102の前面に設定されたマイク204A及び204Bと、HMD102の側面に設定されたマイク204Cとを含む。マイク204A〜Cの配列を利用することによって、それぞれのマイクからの音は、音源の位置を判断するように処理され得る。この情報は、望まない音源の排除、視覚的識別等との音源の関連付け等を含む種々の方法で利用され得る。
HMD102は、1つまたは複数の画像取得デバイスをさらに含んでよい。例示の実施形態では、HMD102は、画像取得デバイス202A及び202Bを含むよう示される。画像取得デバイスの双眼写真を利用することによって、環境の3次元(3D)画像及び映像がHMD102の視点から取得され得る。係る映像はユーザに提示され、HMD102を装着している間、ユーザに「ビデオシースルー」機能を提供し得る。つまり、厳密な意味ではユーザはHMD102を透視することはできないが、画像取得デバイス202A及び202Bにより取得された映像は、HMD102を透視しているようにHMD102の外部の環境を見ることができる、機能的に同等なものを提供し得る。
係る映像は、拡張された現実的体験を提供するための仮想的要素により拡張されることがあるか、または、他の方法で仮想的要素と結合もしくは融合されてよい。例示の実施形態では2つのカメラがHMD102の前面に示されるが、任意の数の外部を向くカメラまたは単一のカメラをHMD102に設置してよく、任意の方位に配向されてよいことを理解されたい。例えば、別の実施形態では、環境の追加的なパノラマ画像取得を提供するために、カメラをHMD102の側面に取り付けてよい。1つの実施形態では、前向きのカメラ(RCG及び/または深度カメラ)を使用して配置及びポーズならびにユーザの手または手袋の動きを追跡してよい。以下により詳細に記載する通り、前向きのカメラによって取得された画像データからの情報を使用して、より精細な解像度を提供するか、または別様には仮想オブジェクトと相互作用するときに、改良された触覚フィードバックをユーザに提供することができる。
図3は、ユーザ100のHMD102に対してビデオゲームコンテンツをレンダリング可能なクライアントシステム106を使用したゲームプレイの1つの例を例示する。レンダリングは、ある場面の1つのオブジェクトまたは多数のオブジェクトであってよい。オブジェクトは場面内で見ることができる物体であってよく、物体とは、キャラクター、人物、建物、景色及び一般的に視覚的に生成されたコンテンツであり、通常VR空間、ビデオゲーム、対話型コンテンツ、対話型ゲーム、学習ゲームもしくは学習コンテンツ、トラベルコンテンツ、写真、画像等に存在するコンテンツの場合がある。この例示において、HMD102に対して提供されたゲームコンテンツは、対話が豊富な3D空間内にある。上述のように、ゲームコンテンツは、クライアントシステム106にダウンロードしてよく、または、クラウド処理システムによって1つの実施形態で実行してよい。クラウドゲームサービス112は、ユーザ140のデータベースを含むことがあり、特定のゲームにアクセスすること、他の友人と体験を共有すること、コメントを投稿すること及びユーザのアカウント情報を管理することが可能になる。
クラウドゲームサービス112はさらに、ゲームデータ150を、ゲームプレイ、将来のゲームプレイ、ソーシャルメディアネットワークの共有の際に使用できるよう特定のユーザのために記憶するか、またはトロフィー、賞、状態、ランキング等を記憶するために記憶し得る。ソーシャルデータ160はさらに、クラウドゲームサービス112によって管理され得る。ソーシャルデータ160は、個別のソーシャルメディアネットワークによって管理されてよく、これは、インターネット110上でクラウドゲームサービス112と相互作用し得る。インターネット110上で、コンテンツへのアクセスのため及び他のユーザとの対話のために任意の数のクライアントシステム106が接続され得る。
図3の例で続けると、HMD102で見られる3次元の対話型場面は、3D表示で例示されたキャラクターなどのゲームプレイを含み得る。1つのキャラクター、例えば、P1は、HMD102を装着するユーザ100によってコントロールされ得る。この例は、2人のプレイヤーの間のバスケットボールの場面を示し、HMDのユーザ100は、3D表示では別のキャラクターに対してボールをダンクしている。他のキャラクターは、ゲームのAI(人工知能)キャラクターとしてよく、または、別の1人または複数のユーザ(Pn)によってコントロールされてよい。HMD102を装着しているユーザ100は、使用空間を動きまわるように示され、HMDは、ユーザの頭の動き及び体の配置に基づいて動きまわってよい。カメラ108は、部屋にあるディスプレイ画面上に配置されるよう示されるが、しかしながら、HMD102の使用のため、カメラ108は、HMD102の画像を取得し得る任意の位置に置かれ得る。このように、HMD102でレンダリングされるコンテンツは、カメラ108の視点から、HMD102が配置される方位に依存し得るため、ユーザ100は、カメラ108及びディスプレイ107から約90度回転して示される。当然のことながら、HMD102の使用中、ユーザ100は、HMDによってレンダリングされた動的な仮想場面を利用する必要があり得る場合には、動きまわり、頭を回転させ、種々の方位を見るだろう。
図4は、開示の実施形態による、使用中にHMD102を装着しているユーザを例示する。この例では、カメラ108がHMD102の位置を追跡する追跡プロセスにおいて、外部を使用してHMD102が追跡402される様子が示されている。カメラ108は、カメラ108によって取得された映像フレームから得られる画像データを使用して、HMD102の位置を追跡している。他の実施形態では、さらにまたは代替的に、HMD自体からの慣性データを追跡に利用することができる。種々の実施形態では、ユーザの頭/HMDの追跡は、画像追跡及び慣性追跡から得られた合成データを含む場合がある。追加的に、コントローラは、カメラ108によって取得された映像フレームから得られる画像データを使用して、さらに追跡404され得る様子が示される。さらに、ケーブル406を介してコンピューティングシステム106にHMD102が接続される構成が示されている。1つの実施形態では、HMD102は、同じケーブルから電源を得るか、または別のケーブルに接続してよい。さらに別の実施形態では、HMD102は、余分な電源コードを防ぐために、再充電可能なバッテリーを有し得る。さらに別の実施形態では、手袋の有無に関わらず、ユーザの手を追跡することができる。
いくつかの実施形態では、HMD体験は画面の中央にある明示的または暗示的なレチクルを有し、レチクルはオブジェクトの選択またはイベントの起動のために使用される。一部のHMDユーザ、特に2焦点の眼鏡を装着しているユーザは、ユーザの眼鏡の焦点の境目がレチクルの配置に一致することが多いため、これらの体験に問題が生じる。1つの実施形態では、特定のユーザに対するオフセットが識別されると、このオフセットをユーザの設定(例えば、プロファイル)に記憶することができる。ユーザの設定に記憶できる他のデータには、ユーザのIPD(瞳孔間距離)が含まれ得る。利点として、オフセットまたは頭の傾きによるオフセットのパラメータを識別することにより、中央のレチクルを使用する多数または全てのHMD体験は確実に一貫して優れた体験となる。種々の方法を使用して、ターゲットレチクル構成を調整することができる。一部の例では、「高レチクル」、「中央レチクル」または「低レチクル」を選択することを含み得る。例えば、頭を傾けることで画面の中心を見るユーザを、中央レチクルに対して、高レチクルまたは低レチクルに分類または特定することが可能である。ユーザが中央レチクルユーザの場合、調整は行われないだろう。調整またはオフセットは、その数値がユーザに対して正確ではない場合でも、高低に対する特定の数値を事前定義することができる。他の構成では、正確なオフセットまたはほぼ正確なオフセットを測定することができる。さらに他の実施形態では、例えば「2焦点の眼鏡を装着する」または「2焦点の眼鏡を装着しない」などの選択をユーザが入力することで、ユーザに対するオフセットを事前に設定することができる。さらに他の実施形態では、スライダまたはジョイスティックを使用してレチクルを快適な場所に再配置してよい。さらに、他の実施形態は、例えば、選択オブジェクトを提供してよい。選択オブジェクトは、表示可能な任意の視覚的物体または可視化された物体であってよい。単なる例であるが、較正ステップ中に選択オブジェクトが使用された場合、選択オブジェクトは画面中央内で赤い四角形になり得る。次いで、赤い四角形が快適なレチクル配置になるまで、ユーザは頭を動かすように要求される。
理解できる通り、多数の他の用途に対して有益的な固有の設定が存在するが、これらはユーザ設定ほど包括的ではない。例えば、ユーザの視線の中心があるイベントを起動するために使用される場合、ユーザはターゲット領域の範囲/感度を構成するよう望み得る。これらの広範な実施形態を考慮し、以下の例は、頭の傾きを識別する方法及び特定のユーザの頭の傾きを補正するためにコンテンツを修正または調整する方法を例示し、これらの方法によりユーザのHMD体験は改善する。
図5Aは、開示の実施形態による、使用中のHMD102を例示する。HMD102は、仮想画像をユーザに表示するための画面102Aを含む。画面102Aは、説明のためにHMD102とは別個に示されている。しばしば、レチクル502のような中央焦点は、ユーザがゲームデバイスまたは画像を必要とするシューティングゲームまたは他の種類の機能に必要となり得るような、画面102A上に表示される画像の一部である。他の中心焦点は、画面102A上に表示されている画像の中心点523となる可能性がある。
HMD102は、垂直Y’軸及び水平Z’軸を含む。HMD102はさらに、垂直Y’ベクトルと水平Z’ベクトルとの交点を通るページ面を垂直に通過するX’軸を含むことも理解されたい。ユーザが仮想世界に対してHMDを動かすと、HMD102は、画面102A上に表示される仮想世界画像の視点をレンダリングするために、垂直Y’軸、水平Z’軸及びX’軸を使用する。HMD102は、HMDの動きを追跡することができる慣性センサを含むことができ、ゆえに、ユーザが仮想世界に対してHMDを動かすときに、画面102A上に表示される仮想世界画像の視点をレンダリングするために必要な動き及び方向情報を提供する。
カメラ108は、垂直Y軸と整合することができるか、または垂直Y軸と平行にすることができる焦点面108Aを含むことができる。カメラ108は、さらにまたは代替的に、HMD102の動き及び方向を追跡することができ、ゆえに、ユーザが仮想世界に対してHMDを動かすときに、画面102A上に表示される仮想世界画像の視点をレンダリングするために必要な動き及び方向情報を提供することができる。
理想的には、HMD102の垂直Y’ベクトル及び水平Z’ベクトルは、実世界の実際の水平Z軸に垂直な実際の垂直Y軸と整合するか、または平行になるので、画面102A上に表示される仮想環境は、ユーザが存在して動く実世界と整合する。しかしながら、実世界は理想的な世界ではなく、それぞれの人間のユーザは個々の体形、サイズ及び体勢を有する。
図5B〜図5Dは、開示の実施形態による、様々な人間の体勢510A〜510Cを例示する。図5Bに示す通り、理想的な人間の体勢510Aの頭は、実世界の垂直Y軸と実質的に整合しており、目の中心視は実世界のZ軸に実質的に平行なベクトルZ’522に沿っている。残念ながら、全てのユーザが人間の理想的な体勢510Aを有しているわけではない。
図5Bに示す通り、一般的な体勢510Bは首及び/または肩がわずかに前屈または前向きに曲がっており、結果的に、頭が下及び前向きに曲がるため、頭が実世界の垂直Y軸と実質的に整合しない。その結果、ユーザの顔は下方に傾いている。ユーザの顔が下方に傾いているため、ユーザは、ユーザの目の中心視がベクトルZ’522に沿って整合するよう、ユーザの中心視を上方に傾けることで補正する傾向がある。
図5Cに示す通り、一般的な体勢510Cは、わずかに顔が持ち上げられており、結果的に、頭が上方に曲がるため、頭が実世界の垂直Y軸と実質的に整合しない。その結果、ユーザの顔は上方に傾いている。ユーザの顔が上方に傾いているため、ユーザは、ユーザの目の中心視がベクトルZ’522に沿って整合するよう、ユーザの中心視を下方に傾けることで補正する傾向がある。
図6A及び図6Bは、開示の実施形態による、HMD102を装着している人間の様々な体勢510B及び510Cを例示する。図6Aには、首及び/または肩がわずかに前屈または前向きに曲がった姿勢510Bが示されている。首及び/または肩がわずかに前屈または前向きに曲がった姿勢510Bは、ユーザが最初にHMD102を装着するときのユーザの初期姿勢となることがある。初期方向は、重力などの実世界の物理的基準、あるいは、例えば、カメラ108またはユーザがHMDを装着している部屋内の床もしくは壁などのHMD102の周りの実世界環境の物体に対する方位または相対的基準を含む場合がある。
ユーザが画面102Aに表示されたオブジェクトを注意して見るように指示されるか、またはプロンプトされる前に、ユーザは快適な視聴姿勢または配置に動くようプロンプトされ得る。快適な視聴配置とは、HMD102の装着中にユーザがユーザの前の1つの方位を見ているときである。しかしながら、ユーザは特定のオブジェクトまたは位置を見るようにはプロンプトされない。目標は、ユーザの通常のリラックスした姿勢を取得することである。
ユーザが画面102Aに表示されたオブジェクトを注意して見るよう指示されるか、またはプロンプトされる場合、ユーザは、上方を見ることによって姿勢を補正し、結果的に、ユーザの中心視は実世界のZ軸とほぼ整合するベクトルZ’522’に沿うように位置する。しかしながら、ユーザの頭の前向きの傾きにより、HMDのZ軸は、実世界のZ軸及びベクトルZ’522’に沿ったユーザの中心視の下に角度θだけ下方にシフトする。その結果、ユーザの視覚は、画面102A上に表示されている画像の中心点523の上に距離+Z’’だけオフセットされた表示画像内の位置524に位置する。ユーザの首及び/または肩が前向きに曲がった姿勢を補正しながら、ユーザは、HMD102を初期方向とは異なる指示方向に動かし得る。初期方向と指示方向との間のオフセットは、カメラ108及び/またはHMD102内の慣性センサによって決定することもできる。
図6Bに示す通り、顔がわずかに持ち上げられた姿勢510Cの初期方向及びユーザが下方を見ることによる補正は、結果的に、ユーザの中心視が実世界のZ軸とほぼ整合するベクトルZ’522’に沿って位置するようになる。しかしながら、ユーザの頭の上方向の傾きにより、HMDのZ軸は、実世界のZ軸及びベクトルZ’522’に沿ったユーザの中心視の上に角度αだけ下方にシフトする。その結果、ユーザの視覚は、画面102Aに表示されている画像の中心点523の下に距離−Z’’’だけオフセットされた表示画像内の位置526に位置する。
ユーザの中心視が画面102A上に表示されている画像の中心点523からオフセットされた位置にあるとき、ユーザは不快感及び眼精疲労を経験することがある。さらに、オフセットにより、結果的に、HMD102がレチクルをユーザの中心視からオフセットされた配置にレンダリングすることにもなり、ゆえに、目指している機能の正確性が低くなることがある。
図7A〜7Dは、開示の実施形態による、ユーザの目103とHMD102の画面102A上に表示されている画像のレチクル520との間に挿入される矯正レンズ515、515’を例示する。図7Aに示す通り、典型的な人間の目は、約3〜5度の中心視範囲525を有する。HMDの画面102A上に表示された画像がユーザの中心視範囲525からオフセットされている場合、画像に焦点が合っていないか、または別様にはユーザに不明瞭である可能性がある。画面102A上に表示される画像は、表示された画像のデータコンテンツを減らす手法として、画像の中心点523の外側にあるか、または別様には画像の中心点523からオフセットされた表示画像の部分の解像度を減らすこともできる。画像の中心点523がユーザの中心視範囲525と整合していないとき、ユーザは眼精疲労を経験し、表示画像の最適な視野を持たない可能性がある。
さらに、図7Aに示す通り、ユーザの目103と、画面102A上に表示されたレチクル520を含む画像との間に介在する矯正レンズ515がある。矯正レンズ515は、ユーザの目の前に装着された眼鏡に含まれるか、またはユーザの目の表面に接触するコンタクトレンズもしくはユーザの目の中に埋め込まれる埋込型矯正レンズとしても含めることができる。矯正レンズ515は、ユーザがレンズから見る角度に関わらず同じ視力補正機能を提供できるよう単一の光学補正を有するため、単視矯正レンズである。単視矯正レンズを装着しているユーザは、通常、頭を上下に傾けて近距離もしくは遠距離または中間距離にある画像を見ることはない。
図7Bに示す通り、ユーザの目103と画面102A上に表示されたレチクル520を含む画像との間に多焦点矯正レンズ515’が介在している。多焦点矯正レンズ515’は、レンズの上半分にある第1の視力補正と、レンズの下半分にある第2の視力補正とを有する。多焦点矯正レンズ515’は、ユーザの目の前に装着された眼鏡に含まれるか、またはユーザの目の表面に接触するコンタクトレンズもしくはユーザの目の中に埋め込まれる埋込型矯正レンズとしても含めることができる。多焦点矯正レンズ515’は、図示の通り、レンズに対して2つの視力補正部分を有する2焦点の矯正レンズとなることがある。代替的には、多焦点矯正レンズ515’は、レンズに対して3つの視力補正部分を有する3焦点の場合がある。多焦点矯正レンズ515’は、レンズに対して4つ以上の視力補正部分を含むことがある。
多焦点矯正レンズ515’は、視覚補正部分の各々を分離する可視化された分割ラインを備えることなくレンズの視力補正部分のそれぞれを融合する先進的な種類のレンズとなることがある。多くの場合、多焦点矯正レンズ515’は、レンズの上部分にある第1の視力補正と、レンズの下部分にある第2の視力補正との間にある可視化された分割ライン516を含む。分割ライン516は、多くの場合、表示画像のレチクル520とさらに実質的に整合したベクトルZ’522に沿って、ユーザの目103の中心視と整合する。分割ライン516は、ゆえに、レチクル520を不明瞭にする。
多焦点レンズを装着しているユーザは、可視化された分割ラインを有するレンズか、可視化されていない分割ラインを有する先進的な種類の多焦点矯正レンズかに関わらず、図7Cに示す通り、ユーザの中心視532が分割ライン516の上になるよう調整するか、または遠くの物体を見るためにユーザの中心視が矯正レンズの選択部分を通るように、頭をわずかに後ろに傾けることが多い。多焦点レンズを装着しているユーザは、図7Dに示す通り、ユーザの中心視532’が分割ライン516の下になるよう調整するか、または近くの物体を見るために中心視が矯正レンズの選択部分を通るように、頭をわずかに前向きに傾けることが多い。その結果、多焦点矯正レンズを装着しているユーザは、多くの場合、HMD102を使用する際に、意図せず頭を前後に傾ける可能性がある。ユーザが意図せず頭を前後に傾けてしまうと、上記の図6A及び図6Bに記載した同じオフセットの問題が発生することがある。しかしながら、HMDは、ユーザの頭の傾きを補正して、レチクル520をユーザの中心視532、532’と整合した状態に維持することができる。
図7E及び7Fは、開示の実施形態による、HMD102の画面102A上に表示される画像を見ているときにユーザが頭を傾ける様子を例示する。表示される画像は、野球ボールを保持する野球プレイヤーを含むことがある。ユーザは、注意して見るよう指示されることがあり、したがって、野球プレイヤーまたはプレイヤーの手にある野球ボールの方にユーザの中心視を向ける。野球プレイヤーは静止しても動いていてもよく、または野球プレイヤーは単に野球ボールを保持しているか、または野球ボールを投げていることもある。ユーザが野球または野球プレイヤーの方に中心視を向けると、HMD102はユーザの目を追跡することができる。
1つの実施態様では、HMDは、ユーザの目に向けられた1つ以上のカメラまたは検出器を用いて、ユーザの目の動きを直接的に追跡することができる。HMDは、ユーザがプレイヤーまたは野球ボール、または表示画像内のいくつかの他の対話型オブジェクトを正確に追跡しているかどうかを判定する処理を行うために、ユーザの検出された眼球運動をゲームコンソールまたはサーバに提供することができる。別の実施態様では、HMDは、ユーザが野球ボールの動きをどれだけ正確に識別することができるかを測定することによって、間接的にユーザの目の動きを追跡することができる。例として、ユーザは、画面に表示された対話型場面で野球ボールがユーザに接近するときに、仮想の野球バットで野球ボールをスイングするように要求されることがある。野球ボールの軌道が高すぎるまたは低すぎるために、ユーザの仮想の野球バットで野球ボールをヒットできないとユーザが繰り返し予測する場合、ユーザが野球ボールを見逃す量を+Zまたは−Zオフセットとして解釈することができる。
前述の例は、ユーザの頭を前向きに傾けてユーザの顔を若干下方向もしくは後方に向けること及びユーザの顔を若干上方向に向けることを例示している。しかしながら、ユーザは、例えば、頭を右側に傾けたり、左側に傾けたりなど、頭を片側または別の側に横方向に傾ける可能性があることを理解されたい。ユーザは、頭を前向きかつ下または後方かつ上に傾けることに加えて、またはその代わりに、頭を片側に傾けることがある。HMDは、ユーザの前向き及び後方の頭の傾きを検出するのと同様の方法で、ユーザの横方向の頭の傾きを検出することができる。同様に、HMD102は、表示画像をユーザの前向きまたは後方の頭の傾きに対して調整するのと同じ方法で、ユーザの横方向の頭の傾きを補正するように表示画像を調整することができる。
図8は、開示の実施形態による、HMD102に表示されるレンダリング画像を頭の傾きに対して調整するためのシステム850の簡略化した模式図である。システム850は、クラウドネットワーク110に結合されたゲームコンソール106ならびにクラウドゲームプロバイダ112及びコンテンツソース120を含む。ゲームコンソール106はさらに、ヘッドマウントディスプレイ102、ユーザ入力デバイス812などの他の周辺デバイスに結合される。(例えば、手袋、コントローラ、モーションコントローラ、慣性センサ、光源コントローラ、磁気コントローラ等)
ゲームコンソール106は、コンテンツ選択モジュール816、入力デバイスインターフェース814、VR空間生成モジュール818及びHMD移動モジュール820を含む。コンテンツ選択モジュール816は、コンテンツインタフェース817及び仮想現実コンテンツ選択モジュール810を含む。
動作中、コンテンツインタフェース817は、種々のコンテンツソース120から仮想現実コンテンツを受信する。コンテンツ傾き調整モジュール810は、コンテンツインタフェース817からの仮想現実コンテンツの適切な部分を調整し、これは入力デバイスインターフェース814を通じた種々の入力デバイス及びHMD移動モジュール820から受信した入力に従って、ユーザの頭の傾きにより発生して検出されたオフセットに対応している。1つの例として、上記の図6Bに示す通り、ユーザの頭の傾きが上方である場合、コンテンツ傾き調整モジュール810は、HMD102上の1つまたは複数のセンサ及び/またはHMDの外部にありHMDを向きHMDの傾きを検出するカメラ108からの入力を受信し、表示コンテンツの中心がユーザの中心視に再び合うように、HMDの画面102A上に表示されるコンテンツを調整してユーザの頭の傾きに対して補正する。コンテンツインタフェース817は、調整したVRコンテンツをVR空間生成モジュール818に出力する。VR空間生成モジュール818は、HMD102に提示される仮想環境または空間を生成する。
図9は、開示の実施形態による、コンテンツソース120の簡略化した模式図である。コンテンツソース120は、VRコンテンツライブラリ920を含むいくつかのモジュールを含む。複数のコンテンツスペース922A〜nがVRコンテンツライブラリ920内に含まれる。VRコンテンツ926は、VRコンテンツ選択モジュール810が必要とするデータを提供し、HMD102に表示される仮想空間を定義する。
オブジェクト3D空間構成モジュール930は、表示されたオブジェクトの3D特徴を提供する。これらの3D特徴には、表示されるオブジェクトの重量、形状、テクスチャ及び色を含めることができる。
オブジェクト音プロファイル932は、表示された仮想オブジェクト及び仮想空間に対応する音を提供する。例えば、樹木の葉を鳴らす風の音、遠くの雷鳴及びHMD上に表示される仮想空間に存在する動物の音である。オブジェクト物理プロファイル934は、仮想空間に表示される種々のオブジェクトの物理的な運動及びテクスチャ特性を提供する。仮想空間内で再生されるオブジェクトの運動、テクスチャ、音、配置及びポーズならびに位置のそれぞれは、VRコンテンツ選択モジュール810及びVR空間生成モジュールによって使用され、HMD102上に表示されるVR空間にオブジェクトを生成する。
図10は、開示の実施形態による、HMD102に表示される画像を調整するときに行われる動作方法1000を例示するフローチャート図である。動作1005では、仮想空間がレンダリングされ、HMD102を通じてユーザに表示される。仮想空間内に存在する種々の仮想オブジェクトもユーザに表示される。動作1010では、仮想空間は、ユーザの頭の傾きに対して補正を行うように調整される。1つの例として、ユーザは、HMD102を上方、下方または左もしくは右及びそれらの組み合わせに傾けることができる。
動作1015では、ゲームコンソール106は、ユーザの頭の傾きに対応して調整される追加の仮想環境を提供する。これにより、HMD102の画面102Aの中心部分ではなくユーザの中心視を中心として表示された仮想画像によって、円滑な走査感覚をユーザに提供する。
図11は、開示の実施形態による、HMD102の動きを追跡するときに行われる動作方法1100を例示する、より詳細なフローチャート図である。動作1105では、ユーザはHMD102を装着する。HMD102は、ユーザの顔に着座し、ユーザの目の上に配置された快適な配置で装着される。動作1110では、HMD102の画面102A上で仮想空間の画像がユーザに表示される。
動作1115では、ユーザは、画面102A上に表示された仮想空間画像内の特定の位置またはオブジェクトを注意して見るようにプロンプトされる。ユーザが選択されたオブジェクトまたは位置を注意して見るようにプロンプトされると、ユーザはリラックスし、例えば、快適な配置または姿勢など、自分にとって快適になるように頭を前向き、後方、左右などあらゆる方向に傾けて配置し、選択されたオブジェクトに中心視を向ける傾向がある。
動作1120では、ユーザの中心視が向けられている表示画像内の位置が検出される。ユーザの中心視が向けられている表示画像内の位置を検出することは、ユーザのパフォーマンスを測定することにより判定することができる。例えば、ユーザは、動作1115で移動オブジェクトを目で追い、表示画像内の特定の位置にあるときに、そのオブジェクトをヒットすることを試みるよう指示され得る。しかしながら、ユーザの頭の傾きにより、ユーザの中心視は、移動オブジェクトの理想的な位置から若干オフセットされることがあり、そのオフセット量を決定することができる。ユーザに特定の位置またはオブジェクトに注目するよう指示し、ユーザの中心視が向けられている表示画像内の位置を検出するプロセスは、上記の図6A及び図6Bに記載した+Z及び−Zオフセットなどの検出されたオフセットを精緻化するために何度も実行することができる。
別の例では、ユーザは、具体的には、表示画像内の1つまたは複数の移動中の位置もしくはオブジェクトまたは固定された位置もしくはオブジェクトを見るよう求められることがあり、次いで、画像に焦点が合っているか、または合っていないかをユーザに確認することがある。ユーザは、HMD102及び/またはゲームコントローラに入力(例えば、ボタンの押下、または口頭指示もしくは他の入力)を提供して、そのオブジェクトに焦点が合っているか、合っていないかを示すことができる。
別の例では、ユーザは、図7A〜図7Dに示す通り、レチクル520を見るように指示されることがある。別の例では、ユーザは、固定されたオブジェクトまたは移動オブジェクトなどの、仮想空間に表示された特定のオブジェクトを注意して見るまたは見るように指示されることがある。特定のオブジェクトに注目するようユーザに指示することは較正プロセスの一部となり得、このプロセスでは、ユーザは、選択されたオブジェクトに焦点を向けるように特にプロンプトされる。代替的には、較正プロセスは、ユーザがHMD102で体験しているゲームまたは他の仮想空間アクティビティの一部であってよく、ユーザは、HMDの画面102A上に表示された仮想空間の表示画像内にある何らかのアクションに注目する。VRコンテンツ傾き調整モジュール810は、ガイド及び/またはフィードバックを提供し、初期方向になるべきとき、または動きを停止すべきときをユーザにプロンプトすることができる。1つの実施態様では、VRコンテンツ傾き調整モジュール810はさらに、システムが初期方向及び指示方向の両方の座標を取得できるよう、ユーザに較正が完了したことをプロンプトすることができる。例として、プロンプトは、OKまたは良好のような画面上の視覚的合図、または発信音もしくは口頭指示のような可聴キューを表示することを含むことができ、あるいはユーザは、画面102Aに表示された場面が改善されたことを示すために、口頭応答またはゲームコントローラへのボタン入力などの入力を提供するようにプロンプトされることがある。
別の実施態様では、指示方向は、選択された期間または閾値期間の後に取得することができる。例えば、選択された期間は、約0.5秒〜約2秒の間とすることができる。代替的には、選択された期間は、画面102Aに提示された対話型コンテンツに関連することがあり、ユーザがコンテンツとの対話の一部を完了したとき、例えば、ゲームのプレイの一部を完了したときの時間が決定される。別の実施態様では、選択された期間は選択されたオブジェクトがレンダリングされた後であってよい。閾値時間はさらに、ユーザがオブジェクトの位置を見るために初期方向から動くのに必要な予測期間の後となることがある。
動作1125では、動作1120で検出されたオフセットが事前に選択された量を超えない場合、画面上に表示された画像への調整が必要ないため、動作方法を終了することができる。しかしながら、画像調整プロセスは継続中の場合があり、したがって、現在の反復がユーザの頭の傾きによる測定可能なオフセットを見つけなかったとしても、ユーザによるHMDの使用中に、しばらくしてから追加的に頭の傾きが発生し得ることを理解されたい。例として、ユーザがHMDの使用中に最初は立っている場合、ユーザは、頭を大幅に前向きかつ下に傾けた姿勢となり得、次いで、HMDはユーザの頭の傾きによって生じたオフセットを補正するために画像を調整することがある。後に、同じくHMDの使用中に、ユーザは、椅子に座るか、またはベッドに横たわることがあり、その結果、ユーザの頭の傾きが変化することがあり、ユーザの頭の変更した傾きを補正するために、画像に異なる調整が必要になり得る。
動作1120で検出されたオフセットが事前に選択された量を超える場合、動作1130で動作方法を継続することができ、動作1130では、画面102Aに表示された画像を調整し、検出されたオフセットに対して補正することができる。検出されたオフセットに対して補正することは、画像の表示された中心がユーザの中心視と整合するように画像を調整することを含む場合がある。上記の図7E及び図7Fに示す、ユーザに向けて野球ボールを投げる例に戻ると、図7Eに示す通り、検出されたオフセットが+Zオフセットの場合、画像は、+Zの量または+Zの関数、例えば+Zの比率などだけ上方に調整することができる。動作方法1100のオフセット検出プロセスを次いで繰り返し行い、調整された画像が、検出されたオフセットを事前に選択された量より減少させたかどうかを判定することができる。
検出されたオフセットの追加の使用は、HMDの後続使用においてユーザがHMDを使用しているときに常時オフセットを呼び出すことができるように、オフセットをユーザのプロファイルに保存することを含むことがある。ユーザのプロファイルに記憶されたオフセット値は、HMDの使用中に定期的または継続的に更新することができる。例として、オフセット値は、ユーザがHMD使用セッションを開始したときにユーザのプロファイルから最初に呼び出され、次いで、ユーザの現在のHMDセッションが終了したときに、修正したオフセットをユーザのプロファイルに記憶することができるか、さらにはユーザのHMDセッション中に1回または複数回記憶することができる。オフセット値をユーザのプロファイルに保存するには、HMD102及び/またはゲームコンソール及び/またはゲームサーバがユーザの識別を収集し、ユーザのプロファイルプロファイルにアクセスする必要があることを理解されたい。1つの実装では、ユーザの識別情報は、ユーザによるデータ入力もしくは生体測定データまたはそれらの組み合わせによって得ることができる。
いくつかの実施形態では、動作は、ユーザの識別を検出することを含み得る。識別は、パスワードのユーザ入力、音の検出、生体測定検出、指紋検出、ログインユーザ、ユーザアカウントへのアクセス等によって検出され得る。ユーザが識別されると、ユーザのプロファイルにアクセスすることができる。プロファイルは、ローカルまたはリモートサーバ上のいずれかのユーザデータベースなどのデータベースに保存され得る。プロファイルは、1つの実施形態では、例えば、HMDの使用セッション中に、補正を可能にするために使用されるオフセット(及び他の補正データまたはメタデータ)を保存する。
1つの実施形態では、後続場面は、HMD上でレンダリングされる対話型コンテンツに関連付けられる。例えば、後続場面は、ゲーム、アプリケーション、ツアー、会合またはマルチプレイヤー対話性のものであってよい。
1つの実施形態では、場面または後続場面は、ゲーム、アプリケーション、広告、プログラムまたはそれらの組み合わせの形態で対話型コンテンツを提供する。
1つの実施形態では、HMDを装着しているときに、少なくとも1つの矯正レンズがユーザによって使用され、これにより、ユーザは眼鏡が使用されるときに快適な視聴配置を有する。
1つの構成では、少なくとも1つの矯正レンズは多焦点レンズであり、レンズの上部分にある第1の視力補正と、レンズの下部分にある第2の視力補正との間に可視化された分割ラインを有する。可視化された分割ラインは、例えば、オブジェクトを見るときのユーザの指示方向に影響を及ぼすことがある。
1つの実施形態では、後続場面の配置を調整することにより、当該特定のオブジェクトを見るときのオフセットが低減される。例えば、特定のオブジェクトは、場面内にレンダリングされる対話型コンテンツの対象となるオブジェクトである。
1つの実施形態では、3次元空間におけるHMDの初期方向は実世界環境のものであり、実世界環境は物理的基準を有する。物理的基準は、重力の方位、地面、テーブル、部屋にある物理的物体、HMDを見ているカメラまたはそれらの組み合わせとなる場合がある。
1つの実施形態では、快適な視聴配置は、HMDを装着したときに、ユーザの前方の1つの方位を見ているユーザに対して定義される。
1つの実施形態では、場面内のオブジェクトは、複数の他の視覚画像から識別可能な視覚画像である。視覚画像は、場面内のオブジェクト上に重ね合わされたレチクルであってよい。さらに、視覚画像は、場面内の対話型オブジェクトである。
いくつかの実施形態では、場面内の位置は、画面上の所定の座標(例えば、中心位置、側部位置、上部位置、下部位置またはディスプレイ画面上もしくはユーザが特定の時点の間に特定の場所で視聴しているときにHMDの画面上にレンダリングされる画像上の特定のピクセル座標にある。
1つの実施形態では、指示方向は、HMDが位置する3次元空間内に実世界の座標を有する。
いくつかの実施形態では、プロンプトは、HMDと相互作用するコンピューティングデバイスによって生成される。プロンプトは、可聴プロンプト、視覚プロンプトまたは可聴プロンプトと視覚プロンプトとの組み合わせのうち1つであるか、あるいはさらに触覚フィードバックを含むことがある。1つの実施形態では、プロンプトは、HMDの較正中にユーザに対して生成される。別の実施形態では、プロンプトは、HMDとの対話セッション中に生成される。
1つの実施形態では、指示方向は、閾値期間の後に取得される。閾値時間は、オブジェクトの位置を見るために初期方向から動くのに必要な予測期間の後である。さらに別の構成では、プロンプトは、一定期間の間、オブジェクトの視聴を保持する要求を含む。
1つの例では、オフセットは、実世界空間における座標及び実世界の基準に関連する。オフセットは、垂直オフセットパラメータ、または水平オフセットパラメータ、またはそれらの組み合わせを有してよい。オフセットはさらに、HMD内の慣性センサによって検出されて決定された配置変化から測定されてよい。オフセットはさらに、カメラによって取得されたHMDの検出画像によって測定されてよく、カメラは、当該カメラが取得する1つ以上の画像フレームにおけるHMDの動きを見るように指示されている。さらに他の構成では、オフセットは、HMDの慣性センサにおいて検出された変化と、HMDの発光ダイオードで取得された画像データとの組み合わせによって測定される。さらに、オフセットは、全てのユーザに対して事前に定義してよい。一部のユーザは中央レチクルユーザであってよく、一部のユーザは低レチクルユーザであってよく、他のユーザは高レチクルユーザであってよい。この意味で、レチクルは、ユーザがHMDに指し示すよう指示する位置のことを指す。例えば、ユーザが頭を後ろに傾けて前を直接見る場合、ユーザは高レチクルユーザである。この場合、システムは所定の補正オフセットを適用することができる。この構成により、実際の測定を行わずにユーザにオフセットを適用することができる。
図12を参照すると、開示の実施形態による、ヘッドマウントディスプレイ102の構成要素例を例示する図が示される。有効化する構成及び機能に応じてより多数または少数の構成要素をHMD102に含めるか、または除外し得ることを理解されたい。ヘッドマウントディスプレイ102は、プログラム指令を実行するためのプロセッサ2000を含んでよい。メモリ2002は、記憶のために提供され、揮発性メモリ及び不揮発性メモリの両方を含んでよい。ユーザが視聴し得る視覚的インタフェースを提供するディスプレイ2004が含まれる。
ディスプレイ2004は、単一のディスプレイによって、またはそれぞれの目のための個別のディスプレイ画面の形態で定義され得る。2つのディスプレイ画面が提供されるとき、左目及び右目の映像コンテンツを個別に提供することが可能となる。それぞれの目に対する映像コンテンツの個別提示は、例えば、より優れた3次元(3D)のコンテンツの没入型コントロールを提供し得る。上述のように、1つの実施形態では、第2の画面107は、HMD102の片目用の出力を使用し、次いで2D形式での表示用にコンテンツをフォーマット化することによって、HMD102の第2の画面コンテンツを備える。片目は、1つの実施形態では、左目映像フィードであり得るが、他の実施形態では、右目映像フィードであり得る。
バッテリー2006は、ヘッドマウントディスプレイ102のための電源として提供されてよい。他の実施形態では、電源は、電力に対する出力接続を含み得る。他の実施形態では、電力に対する出力接続及びバッテリー2006が提供されてよい。運動検出モジュール2008は、磁力計2010、加速度計2012及びジャイロスコープ2014などの任意の種々の種類の運動感度の高いハードウェアを含んでよい。
加速度計2012は、反作用の力を生じさせる加速度及び重力を測定するためのデバイスである。単一の及び複数の軸(例えば6軸)のモデルは、様々な方位における加速度の大きさ及び方位を検出することができる。加速度計は、傾き、振動及び衝撃を感知するために使用される。1つの実施形態では、3つの加速度計2012は、重力の方位を提供するために使用され、2つの角度(ワールドスペースピッチ及びワールドスペースロール)に絶対基準を与える。
磁力計2010はヘッドマウントディスプレイ近傍で磁界の強さ及び方位を測定する。1つの実施形態では、3つの磁力計2010がヘッドマウントディスプレイ内で使用され、ワールドスペースヨー角のための絶対基準を確保する。1つの実施形態では、磁力計は±80マイクロテスラである地磁界に及ぶように設計される。磁力計は金属によって影響され、実際のヨーによって単調なヨー計測を提供する。磁界は、環境内の金属によって歪み得るものであり、これはヨー計測において歪みを生じさせる。必要であれば、この歪みはジャイロスコープまたはカメラなどの他のセンサからの情報を用いて較正してよい。1つの実施形態では、加速度計2012は、ヘッドマウントディスプレイ102の傾き及び方位を得るために磁力計2010と共に使用される。
ジャイロスコープ2014は、角運動量の原理に基づいて配置及びポーズを測定または維持するためのデバイスである。1つの実施形態では、3つのジャイロスコープ2014は、慣性力の感知に基づいてそれぞれの軸(x、y及びz)にわたり動きについての情報を提供する。ジャイロスコープは、高速回転の検出を支援する。しかしながら、ジャイロスコープは、絶対基準がなければ経時的にドリフトし得る。これは、定期的なジャイロスコープの再設定を必要とし、これは、オブジェクト、加速度計、磁力計等の視覚的追跡に基づいた配置及びポーズ判定などの他の入手可能な情報を使用して行われ得る。
カメラ2016は、実環境の画像及び画像ストリームを取得するために提供される。2つ以上のカメラは、(任意には)HMD102に含まれてよく、後向きのカメラ(ユーザがHMD102のディスプレイを見るときにユーザの背後を向く)と、前向きのカメラ(ユーザがHMD102のディスプレイを見るときにユーザの方を向く)とを含む。追加的に、深度カメラ2018が実際の環境におけるオブジェクトの深さ情報を感知するためにHMD102に含まれてよい。
HMD102は、音声出力を提供するためのスピーカー2020を含む。さらに、マイク2022は、周囲環境からの音、ユーザの発話等を含む実際の環境からの音声を取得するために含まれてよい。HMD102は、ユーザに対して触知性のフィードバックを提供するための触知性フィードバックモジュール2024を含む。1つの実施形態では、触知性フィードバックモジュール2024は、ユーザに対して触知性のフィードバックを提供するように、HMD102の動き及び/または振動を生じさせることができる。
LED2026は、ヘッドマウントディスプレイ102の状態の視覚的指示器として提供される。例えば、LEDはバッテリーレベル、電源オン等を示してよい。カードリーダー2028は、ヘッドマウントディスプレイ102の読み取りならびにメモリカードへの情報の書き込み及びメモリカードからの書き出しを可能とするように提供される。USBインタフェース2030は、ハンドヘルド周辺デバイスの接続または他のポータブルデバイス、コンピュータ等などの他のデバイスへの接続を可能にするインタフェースの1つの例として含まれる。HMD102の種々の実施形態では、HMD102のより優れた接続性を可能とするように任意の種々の種類のインタフェースが含まれてよい。
WiFi(登録商標)モジュール2032は、無線ネットワーク技術を介したインターネットへの接続を可能とするように含まれてよい。さらに、HMD102は、他のデバイスに対する無線接続を可能とするようにBluetooth(登録商標)モジュール2034を含んでよい。通信リンク2036はさらに、他のデバイスへの接続のために含まれてよい。1つの実施形態では、通信リンク2036は、無線通信のために赤外線伝送を利用する。他の実施形態では、通信リンク2036は、他のデバイスとの通信のための任意の種々の無線または有線の伝送プロトコルを利用してよい。
入力ボタン/センサ2038は、ユーザ用の入力インタフェースを提供するために含まれる。任意の種々の種類の入力インタフェースに、ボタン、ジェスチャ、タッチパッド、ジョイスティック、トラックボール等などが含まれてよい。超音波通信モジュール2040は、超音波技術を介した他のデバイスとの通信を容易とするためにHMD102に含まれてよい。
バイオセンサ2042は、ユーザからの生理学的データの検出を可能とするために含まれる。1つの実施形態では、バイオセンサ2042は、ユーザ/プロファイル等を識別するためにユーザの肌、声の検出、目の網膜の検出によってユーザの生体電子信号を検出するための1つまたは複数のドライ電極を含む。
前述のHMD102の構成要素は、単にHMD102に含まれ得る例示的な構成要素として記載された。本開示の種々の実施形態では、HMD102は、種々の前述の構成要素のいくつかを含んでよく、または含まなくてよい。HMD102の実施形態は、追加的には、本明細書において記載されないが、本明細書において記載された本開示の態様を容易にする目的のため当分野で知られる他の構成要素を含んでよい。
当業者は、本開示の種々の実施形態では、前述のハンドヘルドデバイスは、種々の対話型機能を提供するためにディスプレイに表示された対話型アプリケーションと共に利用され得ることを理解されたい。本明細書に記載される例示的な実施形態は、例示によってのみ提供され、限定により提供されるものではない。
1つの実施形態では、本明細書が指すクライアント及び/またはクライアントデバイスは、ヘッドマウントディスプレイ(HMD)、端末、パーソナルコンピュータ、ゲームコンソール、タブレットコンピュータ、電話、セットトップボックス、キオスク、無線デバイス、デジタルパッド、スタンドアロンデバイス、ハンドヘルドゲームプレイデバイス及び/またはその他を含んでよい。通常、クライアントは、符号化された映像ストリームを受信し、映像ストリームを復号化し、結果としての映像をユーザ、例えばゲームのプレイヤーに提示するように構成される。符号化された映像ストリームを受信するプロセス及び/または映像ストリームを復号化するプロセスは、通常、クライアントの受信バッファにおいて個々の映像フレームを記憶するプロセスを含む。映像ストリームは、クライアントに搭載されたディスプレイ上で、あるいはモニタまたはテレビなどの個別デバイス上でユーザに提示されてよい。
クライアントは、任意には、2人以上のゲームプレイヤーを支援するように構成される。例えば、ゲームコンソールは、2人の、3人の、4人のまたはそれ以上の同時ユーザ(例えば、P1、P2・・・Pn)を支援するように構成されてよい。これらのユーザのそれぞれは、映像ストリームを受信または共有してよく、あるいは、単一の映像ストリームは、それぞれのプレイヤーのために特別に生成された、例えばそれぞれのユーザの視点に基づいて生成された、フレームの領域を含んでよい。任意の数のクライアントは、ローカル(例えば、共同設置)であってよく、または地理的に分散され得る。ゲームシステムに含まれるクライアントの数は、1つまたは2つから数千、数万またはそれ以上へと幅広く変更されてよい。本明細書に使用する場合、「ゲームプレイヤー」または「ユーザ」という語は、ゲームをプレイする人を指すために使用され、「ゲームプレイデバイス」という語は、ゲームをプレイするために使用されるデバイスを指すために使用される。いくつかの実施形態では、ゲームプレイデバイスは、ユーザにゲーム体験を配信するために協働する複数のコンピューティングデバイスを指してよい。
例えば、ゲームコンソール及びHMDは、HMDを通して見られるゲームを配信するために映像サーバシステムと協働してよい。1つの実施形態では、ゲームコンソールは、映像サーバシステムから映像ストリームを受信し、ゲームコンソールは、レンダリングのためにHMD及び/またはテレビに対して映像ストリームを転送するか、または映像ストリームを更新する。
さらに、HMDは、ビデオゲームコンテンツ、映画コンテンツ、映像クリップコンテンツ、ウェブコンテンツ、広告コンテンツ、コンテストコンテンツ、ギャンボルゲームコンテンツ、会議電話/会合コンテンツ、ソーシャルメディアコンテンツ(例えば、投稿、メッセージ、メディアストリーム、友人イベント及び/またはゲームプレイ)、映像部分及び/または音声コンテンツならびにブラウザやアプリケーションを介したインターネット上のソースからの消費のために作成されたコンテンツ及び任意の種類のストリームコンテンツなどの、生成または使用された任意の種類のコンテンツを見るため及び/またはこれらと対話するために使用され得る。当然のことながら、前述のコンテンツのリストは限定するものではなく、HMDで見られる限りまたは画面もしくはHMDの画面でレンダリングされ得る限り、任意の種類のコンテンツがレンダリングされ得る。
クライアントは、要求されるものではないが、受信された映像を修正するために構成されたシステムをさらに含み得る。例えば、クライアントは、1つのビデオ画像を別のビデオ画像に対して重ねるために、ビデオ画像を切り取るために及び/またはその他のために、さらなるレンダリングを実行するように構成されてよい。例えば、クライアントは、I−フレーム、P−フレーム及びB−フレームなどの種々の種類の映像フレームを受信し、ユーザに表示するためにこれらのフレームを画像に処理するように構成されてよい。いくつかの実施形態では、クライアントのメンバーは、さらなるレンダリング、共有化、3Dへの変換、2Dへの変換、歪み除去、サイジングまたは映像ストリーム上のその他の操作を実行するように構成される。クライアントのメンバーは、選択的に2つ以上の音声または映像ストリームを受信するように構成される。
クライアントの入力デバイスは、例えば、片手用ゲームコントローラ、両手用ゲームコントローラ、ジェスチャ認識システム、視覚認識システム、音声認識システム、キーボード、ジョイスティック、位置指示デバイス、力フィードバックデバイス、運動感知デバイス及び/または位置感知デバイス、マウス、タッチ画面、神経インタフェース、カメラ、まだ開発中の入力デバイス及び/またはその他を含んでよい。
映像ソースは、例えば、ストレージのようなコンピュータ可読媒体に記憶される、例えば、ハードウェア、ファームウェア及び/またはソフトウェアなどのレンダリングロジックを含んでよい。このレンダリングロジックは、ゲーム状態に基づいて映像ストリームの映像フレームを作成するように構成される。レンダリングロジックの全てまたは一部は、任意には1つまたは複数のグラフィックス処理装置(GPU)内に配置される。レンダリングロジックは、ゲーム状態及び視点に基づいてオブジェクトの間の3次元の空間関係を決定すること及び/または適したテクスチャを適用すること等を行うように構成された処理ステージを通常含む。レンダリングロジックは、符号化された未処理の映像を生成し得る。例えば、未処理の映像は、AdobeのFlash(登録商標)標準、HTML−5、.wav、H.264、H.263、On2、VP6、VC−1、WMA、Huffyuv、Lagarith、MPG−x.Xvid.FFmpeg、x264、VP6−8、realvideo、mp3またはその他に従って符号化されてよい。符号化プロセスは、デバイス上のデコーダに対して配信するために任意にパッケージされる映像ストリームを生成する。映像ストリームは、フレームサイズ及びフレームレートによって特徴付けられる。通常のフレームサイズは、800×600、1280×720(例えば720p)、1024×768、1080pを含むが、任意の他のフレームサイズが使用されてよい。フレームレートは、毎秒の映像フレームの数である。映像ストリームは、様々な種類の映像フレームを含んでよい。例えば、H.264標準は、「P」フレーム及び「I」フレームを含む。I−フレームはディスプレイデバイスにおいて全てのマクロブロック/ピクセルをリフレッシュするための情報を含み、一方で、P−フレームはそのサブセットをリフレッシュするための情報を含む。P−フレームは、通常、データサイズがI−フレームより小さい。本明細書において使用される場合、「フレームサイズ」という語は、フレーム内のピクセルの数を指すことを意味する。「フレームデータサイズ」という語は、フレームを記憶するために必要とされるバイト数を指すように使用される。
いくつかの実施形態では、クライアントは、汎用コンピュータ、特定用途のコンピュータ、ゲームコンソール、パーソナルコンピュータ、ノートパソコン、タブレットコンピュータ、モバイルコンピューティングデバイス、ポータブルゲームデバイス、携帯電話、セットトップボックス、ストリームメディアインタフェース/デバイス、スマートテレビまたはネットワーク化されたディスプレイまたは本明細書に定義されたクライアントの機能性を満たすように構成可能な任意の他のコンピューティングデバイスであり得る。1つの実施形態では、クラウドゲームサーバは、ユーザによって利用されているクライアントデバイスの種類を検出するように構成され、ユーザのクライアントデバイスに適したクラウドゲーム体験を提供する。例えば、画像設定、音声設定及び他の種類の設定は、ユーザのクライアントデバイスのために最適化されてよい。
図13は、情報サービスプロバイダアーキテクチャの実施形態を例示する。情報サービスプロバイダ(ISP)2170は、地理的に分散されネットワーク2150を介して接続されたユーザ2182に複数の情報サービスを配信する。ISPは、株価更新のような1種類のサービスのみを配信し得るか、または、放送メディア、ニュース、スポーツ、ゲーム等などの多様なサービスを配信し得る。追加的に、それぞれのISPによって供給されたサービスは動的であり、すなわち、サービスは、どの時点においても付加または排除され得る。したがって、特定の個人に対して特定の種類のサービスを提供するISPは、経時的に変化し得る。例えば、ユーザは、自分のホームタウンにいる間、ユーザの近傍のISPによってサービス供給されてよく、ユーザは、異なる街へ移動するときに異なるISPによってサービス供給されてよい。ホームタウンのISPは、要求された情報及びデータを新しいISPに転送し、これによって、ユーザ情報はユーザを「追って」新しい街に行き、データはユーザにより近くなりアクセスし易くなる。別の実施形態では、ユーザのために情報を管理するマスタISPとマスタISPからの制御下でユーザと直接的に相互作用するサーバISPとの間のマスタサーバ関係が確立されてよい。別の実施形態では、クライアントが世界中を動きまわると、ユーザにサービスを提供するより良い配置にあるISPがこれらのサービスを配信するISPになるよう、データは1つのISPから別のISPに転送される。
ISP2170は、ネットワーク上で顧客に対してコンピュータベースのサービスを提供するアプリケーションサービスプロバイダ(ASP)2106を含む。ASPモデルを使用して供給されるソフトウェアは、しばしばオンデマンドソフトウェアまたはサービス型ソフトウェア(SaaS)とも呼ばれる。特定のアプリケーションプログラム(顧客関係管理など)に対するアクセスを提供する簡易な形態は、HTTPなどの標準プロトコルを使用して行われる。アプリケーションソフトウェアは、ベンダーのシステムに常駐し、HTMLを使用しているウェブブラウザを通じたユーザによって、ベンダーによって提供される特定用途のクライアントソフトウェアによって、またはシンクライアントなどの他のリモートインタフェースによってアクセスされる。
広い地理的領域にわたり配信されるサービスは、クラウドコンピューティングを使用することが多い。クラウドコンピューティングはコンピューティングの様式であり、ここでは、動的に拡張可能であり多くの場合仮想化されるリソースがインターネット上でサービスとして提供される。ユーザは、これらを支援する「クラウド」の技術インフラの専門知識を持つ必要はない。クラウドコンピューティングは、サービス型インフラ(IaaS)、サービス型プラットフォーム(PaaS)及びサービス型ソフトウェア(SaaS)などの異なるサービスに分割され得る。ソフトウェア及びデータがサーバに記憶される一方で、クラウドコンピューティングサービスは、ウェブブラウザからアクセスされる共通のビジネスアプリケーションをオンラインで提供することが多い。クラウドという語は、コンピュータネットワーク図においてインターネットがどのように図示されるかに基づいて、インターネットに対する例えとして使用され(例えば、サーバ、ストレージ及びロジックを使用する)、それが包含する複雑なインフラのための抽象的概念である。
さらに、ISP2170は、1人及び複数のプレイヤーのビデオゲームをプレイするためにゲームクライアントによって使用されるゲーム処理サーバ(GPS)2108を含む。インターネット上でプレイされる多くのビデオゲームは、ゲームサーバへの接続を介して動作する。通常、ゲームは、プレイヤーからデータを収集し、それを他のプレイヤーに配信する専用のサーバアプリケーションを使用する。これはピアツーピア構成より効率的かつ効果的であるが、サーバアプリケーションをホストするための個別サーバを必要とする。別の実施形態では、GPSは、プレイヤー間の通信を確立し、プレイヤーの各ゲームプレイデバイスは、中心化されたGPSに頼ることなく情報を交換する。
専用GPSは、クライアントから独立的に作動するサーバである。係るサーバは、通常、データセンタに配置された専用ハードウェア上で作動し、より高い処理能力及び専用の処理パワーを提供する。専用サーバは、多くのPCベースの複数プレイヤーによるゲーム用のゲームサーバをホストするには好適な方法である。専用サーバ上で実行される大規模な複数プレイヤーのオンラインゲームは、通常、ゲームの権利を所有するソフトウェア会社によってホストされ、これによりコンテンツの制御及び更新が可能となる。
ブロードキャスト処理サーバ(BPS)2110は、音声信号または映像信号を視聴者に対して配信する。非常に狭い範囲の視聴者へのブロードキャストは、ナローキャスティングと呼ばれることがある。ブロードキャスト配信の最後の工程は、いかに信号がリスナーまたは視聴者に対して届けられ、ラジオ局またはテレビ局などの放送局を介してアンテナ及び受信機に送信され得るか、あるいは放送局を介してもしくはネットワークから直接的にケーブルテレビまたはケーブルラジオ(または「無線ケーブル」)を通じて送信され得るか、ということである。インターネットはさらに、特に信号及び帯域幅が共有されるのを可能とするマルチキャストによってラジオまたはテレビのいずれかを受信者へと送ってよい。これまでに、ブロードキャストは、全国ブロードキャストまたは地域ブロードキャストなどの地理的領域によって区切られてきた。しかしながら、高速インターネットの普及により、コンテンツは世界のほとんどいかなる国にも届き得るため、ブロードキャストは地理によって定義されない。
ストレージサービスプロバイダ(SSP)2112は、コンピュータストレージ空間及び関連する管理サービスを提供する。SSPはさらに、定期的なバックアップ及びアーカイブを提供する。ストレージをサービスとして供給することにより、ユーザは、必要に応じてさらなるストレージを注文し得る。別の主要な利点は、SSPがバックアップサービスを含み、ユーザはコンピュータのハードドライブが故障した場合であっても全てのデータを失わないということである。さらに、複数のSSPは、ユーザデータの全体のまたは部分的なコピーを有することがあり、ユーザは、ユーザがどこにいるのかに関係なく、またはデータにアクセスするために使用されるデバイスに関係なく、効率的な方法でデータにアクセスすることができる。例えば、ユーザは、ユーザが移動している間に携帯電話にアクセスするのと同様に、自宅のコンピュータの個人的なファイルにアクセスし得る。
通信プロバイダ2114は、ユーザに接続性を提供する。1つの種類の通信プロバイダは、インターネットへのアクセスを供給するインターネットサービスプロバイダ(ISP)である。ISPはダイアルアップ、DSL、ケーブルモデム、ファイバ、無線または専用の高速相互接続などのインターネットプロトコルデータグラムの配信に適したデータ伝送技術を使用してその顧客を接続する。通信プロバイダはさらに、電子メール、インスタントメッセージ及びSMSテキストなどのメッセージサービスを提供し得る。別の種類の通信プロバイダは、インターネットへの直接的な基幹アクセスを提供することにより伝送容量またはネットワークアクセスを販売するネットワークサービスプロバイダ(NSP)である。ネットワークサービスプロバイダは、高速インターネットアクセスを供給する電気通信会社、データキャリア、無線通信プロバイダ、インターネットサービスプロバイダ、ケーブルテレビオペレータ等で構成され得る。
データ交換2104は、ISP2170内のいくつかのモジュールを相互連結させ、これらのモジュールを、ネットワーク2150を介してユーザ2182に接続する。データ交換2104は、ISP2170の全てのモジュールが近傍にある小さな領域をカバーしてよいか、または異なるモジュールが地理的に分散されるときに大きな地理的領域をカバーしてよい。例えば、データ交換2104は、データセンタのキャビネット内の高速なGigabit Ethernet(登録商標)(またはより高速なもの)あるいは大陸間仮想エリアネットワーク(VLAN)を含み得る。
ユーザ2182は、クライアントデバイス2120により遠隔サービスにアクセスし、これは、少なくともCPU、ディスプレイ及びI/Oを含む。クライアントデバイスは、PC、携帯電話、ネットブック、タブレット、ゲームシステム、PDA等であり得る。1つの実施形態では、ISP2170は、クライアントによって使用されるデバイスの種類を認識し、使用される通信方法を調整する。他の場合では、クライアントデバイスは、ISP2170にアクセスするためにhtmlなどの標準の通信方法を使用する。
本開示の実施形態は、ハンドヘルドデバイス、マイクロプロセッサシステム、マイクロプロセッサベースのまたはプログラム可能な民生用電子機器、ミニコンピュータ、メインフレームコンピュータ及びその他を含む種々のコンピュータシステム構成によって実行されてよい。さらに本開示は、有線ベースのネットワークまたは無線ネットワークを通じてリンクされた遠隔処理デバイスによってタスクが実行される分散コンピューティング環境において実行され得る。
上述の実施形態を考慮し、本開示が、コンピュータシステムに記憶されたデータを伴う、種々のコンピュータ実施動作を利用し得ると理解されたい。これらの動作は、物理量の物理的操作を要するものである。本開示の一部を形成する本明細書に記載されたいかなる動作も有益な機械動作である。本開示は、さらにこれらの動作を実行するためのデバイスまたは装置に関する。装置は、必要とされる目的のために特別に構成されてよく、または装置は、コンピュータに記憶されたコンピュータプログラムによって選択的に起動または構成される汎用コンピュータであり得る。特に、種々の汎用機械は、本明細書における教示に従って記述されたコンピュータプログラムによって使用されることがあるか、または、必要な動作を実行するためにより特化した装置を構成することは便利であり得る。
本開示は、コンピュータ可読媒体上のコンピュータ可読コードとしてさらに具現化され得る。コンピュータ可読媒体は、データを記憶でき、その後コンピュータシステムにより読み取られ得る任意のデータストレージデバイスである。コンピュータ可読媒体の例は、ハードドライブ、ネットワーク接続ストレージ(NAS)、読み取り専用メモリ、ランダムアクセスメモリ、CD−ROM、CD−R、CD−RW、磁気テープならびに他の光学的及び非光学的データストレージデバイスを含む。コンピュータ可読媒体は、コンピュータ可読コードが分散された方法で記憶されて実行されるような、ネットワーク結合されたコンピュータシステムにわたり分散したコンピュータ可読有形媒体を含み得る。
動作方法は特定の順序で説明されたが、動作の間において他の維持管理動作が実行されてよく、または動作はわずかに異なる時間においてそれらが発生するように調整されてよく、またはシステムにおいて分散されてよく、これは、重複動作の処理が目的の方法において実行される限り、処理と関連した種々の間隔で処理動作が発生することを可能とすることを理解されたい。
理解を明確にする目的上、いくらかの詳細において前述の開示を記載してきたが、特定の変更及び修正が添付の特許請求の範囲内で実行され得ることは明らかである。したがって、本実施形態は、限定するものではなく例示として考慮されるべきものであり、本開示は、本明細書において提供された詳細に限定されるべきものではなく、記載された実施形態の範囲内及び均等物内において修正され得る。

Claims (30)

  1. ヘッドマウントディスプレイ(HMD)の画面上に表示されたときの場面の配置を最適化する方法であって、
    3次元空間で前記HMDの初期方向を検出することであって、前記HMDの前記初期方向は、ユーザの快適な視聴配置である、前記検出することと、
    前記場面内でオブジェクトをレンダリングすることであって、前記レンダリングは、前記HMDの前記画面上に表示するときに前記オブジェクトを前記場面内の位置に表示させる、前記レンダリングすること、
    前記3次元空間で前記HMDの指示方向を検出することであって、前記指示方向は、前記ユーザに前記場面内の前記オブジェクトを注意して見るように指示するプロンプトに応答して、前記HMDを装着している前記ユーザが前記HMDを前記初期方向から動かした後に検出される、前記検出することと、
    前記初期方向と前記指示方向との間の3次元空間におけるオフセットを決定することと、
    前記オフセットを前記ユーザのプロファイルに保存することであって、前記オフセットは、前記ユーザに対してレンダリングしているときに後続場面の配置を調整するために適用され、これにより、前記後続場面内の特定のオブジェクトは前記画面上にレンダリングされ、前記ユーザの前記快適な視聴配置に近接して前記特定のオブジェクトの視聴を可能にする、前記保存することとを備える、方法。
  2. 前記ユーザの識別を検出することと、
    前記HMDの使用セッション中に使用されることになる前記オフセットを有する前記プロファイルを前記ユーザに対して得ることと
    をさらに備える、請求項1に記載の方法。
  3. 前記後続場面は前記HMD上にレンダリングされた対話型コンテンツに関連付けられている、請求項1に記載の方法。
  4. 前記場面または後続場面は、ゲーム、アプリケーション、広告、プログラムまたはそれらの組み合わせの形態で対話型コンテンツを提供する、請求項1に記載の方法。
  5. 前記HMDを装着しているときに、少なくとも1つの矯正レンズが前記ユーザによって使用され、これにより、前記ユーザは眼鏡が使用されるときに前記快適な視聴配置を設定できる、請求項1に記載の方法。
  6. 前記少なくとも1つの矯正レンズは多焦点レンズであり、前記多焦点レンズの上部分にある第1の視力補正と、前記多焦点レンズの下部分にある第2の視力補正との間に可視化された分割ラインを有し、前記可視化された分割ラインは、前記オブジェクトを見るときの前記ユーザの前記指示方向に影響を及ぼす、請求項5に記載の方法。
  7. 前記後続場面の前記配置を調整することにより、前記特定のオブジェクトを見るときの前記オフセットが低減される、請求項1に記載の方法。
  8. 前記特定のオブジェクトは、前記場面内にレンダリングされる対話型コンテンツの対象となるオブジェクトである、請求項1に記載の方法。
  9. 3次元空間における前記HMDの前記初期方向は実世界環境のものであり、前記実世界環境は物理的基準を有する、請求項1に記載の方法。
  10. 前記快適な視聴配置は、前記HMDを装着したときに、前記ユーザの前方の1つの方位を見ている前記ユーザに対して定義される、請求項1に記載の方法。
  11. 前記場面内の前記オブジェクトは、複数の他の視覚画像から識別可能な視覚画像である、請求項1に記載の方法。
  12. 前記視覚画像は、前記場面内のオブジェクト上に重ね合わされたレチクルである、請求項11に記載の方法。
  13. 前記視覚画像は、前記場面内の対話型オブジェクトである、請求項11に記載の方法。
  14. 前記場面内の前記位置は、前記画面上の所定の座標にある、請求項1に記載の方法。
  15. 前記指示方向は、前記HMDが位置する前記3次元空間内に実世界の座標を有する、請求項1に記載の方法。
  16. 前記プロンプトは、前記HMDと相互作用するコンピューティングデバイスによって生成され、前記プロンプトは、可聴プロンプト、視覚プロンプトまたは可聴プロンプトと視覚プロンプトとの組み合わせのうち1つである、請求項1に記載の方法。
  17. 前記プロンプトは、前記HMDの較正中に前記ユーザに対して生成される、請求項1に記載の方法。
  18. 前記プロンプトは、前記HMDとの対話セッション中に生成される、請求項1に記載の方法。
  19. 前記指示方向は、閾値期間の後に取得され、前記閾値期間は、前記オブジェクトの前記位置を見るために前記初期方向から動くのに必要な予測期間の後である、請求項1に記載の方法。
  20. 前記プロンプトは、一定期間、前記オブジェクトの視聴を保持する要求を含む、請求項1に記載の方法。
  21. 前記オフセットは、実世界空間における座標及び実世界の基準に関連付けられる、請求項1に記載の方法。
  22. 前記オフセットは、垂直オフセットパラメータを有する、請求項1に記載の方法。
  23. 前記オフセットは、水平オフセットパラメータを有する、請求項1に記載の方法。
  24. 前記オフセットは、前記HMD内の慣性センサによって検出されて決定された配置変化から測定される、請求項1に記載の方法。
  25. 前記オフセットは、カメラによって取得された前記HMDの検出画像によって測定されてよく、前記カメラは、前記カメラが取得する1つ以上の画像フレームにおける前記HMDの動きを見るように指示されている、請求項1に記載の方法。
  26. 前記オフセットは、前記HMDの慣性センサにおいて検出された変化と、前記HMDの発光ダイオードで取得された画像データとの組み合わせによって測定される、請求項1に記載の方法。
  27. ヘッドマウントディスプレイ(HMD)の画面上に表示されたときの場面の配置を最適化する方法であって、
    3次元空間で前記HMDの初期方向を検出することであって、前記HMDの前記初期方向は、ユーザの快適な視聴配置である、前記検出することと、
    前記場面内でオブジェクトをレンダリングすることであって、前記レンダリングは、前記HMDの前記画面上に表示するときに前記オブジェクトを前記場面内の位置に表示させる、前記レンダリングすること、
    前記3次元空間で前記HMDの指示方向を検出することであって、前記指示方向は、前記HMDを装着している前記ユーザが前記場面内で前記オブジェクトを注意して見るために前記HMDを前記初期方向から動かした後に検出される、前記検出することと、
    前記初期方向と前記指示方向との間の3次元空間におけるオフセットを決定することと、
    前記オフセットを前記ユーザのプロファイルに保存することであって、前記オフセットは、前記ユーザに対してレンダリングするときに後続場面の配置を調整するために適用され、これにより、前記後続場面内の特定のオブジェクトは前記画面にレンダリングされ、前記ユーザの前記快適な視聴配置に近接して前記特定のオブジェクトの視聴を可能にする、前記プロファイルに保存することとを備える、方法。
  28. 前記オブジェクトは、前記HMDの前記画面に表示するときに前記場面内の第2の場所に表示され、次いで、第2のオフセットを決定し、前記第2のオフセットは前記オフセットの代わりに前記プロファイルに保存されている、請求項27に記載の方法。
  29. 前記オブジェクトは対話型セッションに表示され、前記初期方向及び前記指示方向は前記オフセットを決定するために受動的に取得される、請求項27に記載の方法。
  30. 前記初期方向及び前記指示方向を受動的に取得することは、前記ユーザに前記オブジェクトを注意して見るように指示するプロンプトを必要とすることなく、一定の期間にわたり1回または複数回発生する、請求項27に記載の方法。
JP2018516174A 2015-09-30 2016-09-15 ヘッドマウントディスプレイの画面上でコンテンツの配置を最適化する方法 Active JP6548821B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201562235351P 2015-09-30 2015-09-30
US62/235,351 2015-09-30
PCT/IB2016/001450 WO2017055910A1 (en) 2015-09-30 2016-09-15 Methods for optimizing positioning of content on a screen of a head mounted display

Publications (2)

Publication Number Publication Date
JP2019502971A true JP2019502971A (ja) 2019-01-31
JP6548821B2 JP6548821B2 (ja) 2019-07-24

Family

ID=57209634

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018516174A Active JP6548821B2 (ja) 2015-09-30 2016-09-15 ヘッドマウントディスプレイの画面上でコンテンツの配置を最適化する方法

Country Status (5)

Country Link
US (1) US10360877B2 (ja)
EP (1) EP3335070B1 (ja)
JP (1) JP6548821B2 (ja)
CN (1) CN108292040B (ja)
WO (1) WO2017055910A1 (ja)

Families Citing this family (63)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105359063B (zh) * 2013-06-09 2018-08-17 索尼电脑娱乐公司 利用追踪的头戴式显示器
CN103353663B (zh) 2013-06-28 2016-08-10 北京智谷睿拓技术服务有限公司 成像调整装置及方法
CN103353667B (zh) * 2013-06-28 2015-10-21 北京智谷睿拓技术服务有限公司 成像调整设备及方法
CN103353677B (zh) 2013-06-28 2015-03-11 北京智谷睿拓技术服务有限公司 成像装置及方法
CN103424891B (zh) 2013-07-31 2014-12-17 北京智谷睿拓技术服务有限公司 成像装置及方法
CN103439801B (zh) 2013-08-22 2016-10-26 北京智谷睿拓技术服务有限公司 视力保护成像装置及方法
CN103500331B (zh) 2013-08-30 2017-11-10 北京智谷睿拓技术服务有限公司 提醒方法及装置
CN103605208B (zh) 2013-08-30 2016-09-28 北京智谷睿拓技术服务有限公司 内容投射***及方法
US20170092002A1 (en) * 2015-09-30 2017-03-30 Daqri, Llc User interface for augmented reality system
US10281743B2 (en) 2015-10-01 2019-05-07 Verily Life Sciences Llc Eye convergence detection with contact lenses
US10222632B2 (en) 2015-10-01 2019-03-05 Verily Life Sciences Llc Lens-to-lens communication for contact lenses
US20170195563A1 (en) * 2016-01-05 2017-07-06 360fly, Inc. Body-mountable panoramic cameras with wide fields of view
US10394057B2 (en) * 2016-02-08 2019-08-27 Verily Life Sciences Llc Eyes closed interface
US10591728B2 (en) * 2016-03-02 2020-03-17 Mentor Acquisition One, Llc Optical systems for head-worn computers
US10386655B2 (en) 2016-07-27 2019-08-20 Verily Life Sciences Llc Device, system and method for detecting overlap of an ophthalmic device by an eyelid
US10678397B2 (en) * 2016-09-26 2020-06-09 Htc Corporation Method for providing demonstration information in simulation environment, and associated simulation system
JP7090601B2 (ja) * 2016-10-05 2022-06-24 マジック リープ, インコーポレイテッド 複合現実較正のための眼球周囲試験
WO2018078535A1 (en) * 2016-10-25 2018-05-03 Wung Benjamin Ee Pao Neutral environment recording device
US10867445B1 (en) * 2016-11-16 2020-12-15 Amazon Technologies, Inc. Content segmentation and navigation
GB2557593A (en) * 2016-12-09 2018-06-27 Sony Interactive Entertainment Inc Virtual reality
US20190156792A1 (en) * 2017-01-10 2019-05-23 Shenzhen Royole Technologies Co., Ltd. Method and system for adjusting display content and head-mounted display
US20180267615A1 (en) * 2017-03-20 2018-09-20 Daqri, Llc Gesture-based graphical keyboard for computing devices
US10268263B2 (en) * 2017-04-20 2019-04-23 Microsoft Technology Licensing, Llc Vestibular anchoring
US10281977B2 (en) * 2017-05-25 2019-05-07 Acer Incorporated Virtual reality systems with human interface device emulation and related methods
US10630873B2 (en) 2017-07-27 2020-04-21 Command Sight, Inc. Animal-wearable first person view system
US10609902B2 (en) * 2017-07-27 2020-04-07 Command Sight, Inc. Animal wearable head mountable display system
US11861136B1 (en) * 2017-09-29 2024-01-02 Apple Inc. Systems, methods, and graphical user interfaces for interacting with virtual reality environments
CA3078895A1 (en) * 2017-10-27 2019-05-02 Magic Leap, Inc. Virtual reticle for augmented reality systems
US11303814B2 (en) * 2017-11-09 2022-04-12 Qualcomm Incorporated Systems and methods for controlling a field of view
EP3741109B1 (en) 2018-01-17 2024-04-24 Magic Leap, Inc. Eye center of rotation determination, depth plane selection, and render camera positioning in display systems
CN111771179A (zh) 2018-01-17 2020-10-13 奇跃公司 用于确定显示器与用户的眼睛之间的配准的显示***和方法
US10981067B2 (en) * 2018-02-06 2021-04-20 Gree, Inc. Game processing system, method of processing game, and storage medium storing program for processing game
EP3520868A1 (en) * 2018-02-06 2019-08-07 Gree, Inc. Game processing system, method of processing game, and program for processing game
CN110115842B (zh) 2018-02-06 2023-01-13 日本聚逸株式会社 应用处理***、应用处理方法以及应用处理程序
JP6908573B2 (ja) * 2018-02-06 2021-07-28 グリー株式会社 ゲーム処理システム、ゲーム処理方法、及びゲーム処理プログラム
US20190351441A1 (en) * 2018-05-15 2019-11-21 Carlisle Fluid Technologies, Inc. Vibrating spray applicator system
CN109031688B (zh) * 2018-06-11 2019-11-15 歌尔股份有限公司 一种光学模组中显示屏的定位方法以及定位装置
CN109316741A (zh) * 2018-07-17 2019-02-12 派视觉虚拟现实(深圳)软件技术有限公司 一种vr场景中控制角色移动的方法、装置及设备
CN112689869A (zh) 2018-07-24 2021-04-20 奇跃公司 用于确定显示器与用户的眼睛之间的配准的显示***和方法
WO2020025142A1 (en) 2018-08-03 2020-02-06 Huawei Technologies Co., Ltd. Providing location-based augmented reality content
JP2018207517A (ja) * 2018-08-17 2018-12-27 株式会社コロプラ ヘッドマウントデバイスにおける表示を制御するためにコンピュータで実行される方法、当該方法をコンピュータに実行させるプログラム、および情報処理装置
US10893043B1 (en) * 2018-09-12 2021-01-12 Massachusetts Mutual Life Insurance Company Systems and methods for secure display of data on computing devices
US11227060B1 (en) 2018-09-12 2022-01-18 Massachusetts Mutual Life Insurance Company Systems and methods for secure display of data on computing devices
US11042649B1 (en) 2018-09-12 2021-06-22 Massachusetts Mutual Life Insurance Company Systems and methods for secure display of data on computing devices
US11366514B2 (en) * 2018-09-28 2022-06-21 Apple Inc. Application placement based on head position
EP3871069A1 (en) 2018-10-24 2021-09-01 PCMS Holdings, Inc. Systems and methods for region of interest estimation for virtual reality
CN110780445A (zh) * 2018-11-12 2020-02-11 芋头科技(杭州)有限公司 用于装配光学成像***的主动校准的方法及***
US10983352B2 (en) 2019-01-15 2021-04-20 Apple Inc. Display system with virtual image distance adjustment and corrective lenses
EP3690822A1 (en) 2019-01-30 2020-08-05 Koninklijke Philips N.V. Image representation of a scene
CN110083241B (zh) * 2019-04-26 2022-02-11 南京邮电大学 一种用于vr头盔控制无人机运动的映射机制
CN110478914B (zh) * 2019-08-28 2021-03-16 武汉宇宙寓言影视发展有限公司 一种仿真儿童摇摆机的控制方法、***及装置
WO2021061351A1 (en) 2019-09-26 2021-04-01 Apple Inc. Wearable electronic device presenting a computer-generated reality environment
DE112020001415T5 (de) 2019-09-27 2021-12-09 Apple Inc. Umgebung für Fernkommunikation
CN114830247A (zh) * 2019-12-19 2022-07-29 爱尔康公司 用于视力矫正设备的用户的个性化辅助***
US11860439B1 (en) 2020-05-06 2024-01-02 Apple Inc. Head-mounted electronic device with alignment sensors
CN112634680A (zh) * 2020-12-29 2021-04-09 厦门城市职业学院(厦门市广播电视大学) 一种咖啡制作流程的vr展示装置及其使用方法
US11960345B2 (en) * 2021-05-25 2024-04-16 Samsung Electronics Co., Ltd. System and method for controlling operational modes for XR devices for performance optimization
CN113253851B (zh) * 2021-07-16 2021-09-21 中国空气动力研究与发展中心计算空气动力研究所 一种基于眼动跟踪的沉浸式流场可视化人机交互方法
CN117813541A (zh) * 2021-07-30 2024-04-02 伊奎蒂公司 交互式标线
CN113709415A (zh) * 2021-08-20 2021-11-26 翰和文化教育(深圳)有限公司 Vr720°全景场景数据交互***及其使用方法
US11691072B2 (en) * 2021-08-24 2023-07-04 Sony Interactive Entertainment LLC Aiming display automation for head mounted display applications
US20230415033A1 (en) * 2022-06-28 2023-12-28 Niantic, Inc. Compact Head-Mounted Augmented Reality System
US11947122B1 (en) * 2022-12-08 2024-04-02 Varjo Technologies Oy Tracking system and method incorporating selective control of light sources of controller

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030058543A1 (en) * 2001-02-21 2003-03-27 Sheedy James B. Optically corrective lenses for a head-mounted computer display
US20090128482A1 (en) * 2007-11-20 2009-05-21 Naturalpoint, Inc. Approach for offset motion-based control of a computer
US20130069787A1 (en) * 2011-09-21 2013-03-21 Google Inc. Locking Mechanism Based on Unnatural Movement of Head-Mounted Display
JP2013114491A (ja) * 2011-11-29 2013-06-10 Buffalo Inc 情報表示装置及びプログラム
WO2014156388A1 (ja) * 2013-03-29 2014-10-02 ソニー株式会社 情報処理装置、通知状態制御方法及びプログラム
WO2014155072A2 (en) * 2013-03-25 2014-10-02 Sony Computer Entertainment Europe Limited Display

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5341462B2 (ja) * 2008-10-14 2013-11-13 キヤノン株式会社 収差補正方法、画像処理装置および画像処理システム
US20120120103A1 (en) * 2010-02-28 2012-05-17 Osterhout Group, Inc. Alignment control in an augmented reality headpiece
US8866845B2 (en) * 2010-03-10 2014-10-21 Empire Technology Development Llc Robust object recognition by dynamic modeling in augmented reality
US8957948B2 (en) * 2010-08-24 2015-02-17 Siemens Corporation Geometric calibration of head-worn multi-camera eye tracking system
US8576276B2 (en) * 2010-11-18 2013-11-05 Microsoft Corporation Head-mounted display device which provides surround video
US9215293B2 (en) * 2011-10-28 2015-12-15 Magic Leap, Inc. System and method for augmented and virtual reality
US20140160170A1 (en) * 2012-12-06 2014-06-12 Nokia Corporation Provision of an Image Element on a Display Worn by a User
US9058693B2 (en) * 2012-12-21 2015-06-16 Dassault Systemes Americas Corp. Location correction of virtual objects
US9239460B2 (en) * 2013-05-10 2016-01-19 Microsoft Technology Licensing, Llc Calibration of eye location
WO2015139005A1 (en) * 2014-03-14 2015-09-17 Sony Computer Entertainment Inc. Methods and systems tracking head mounted display (hmd) and calibrations for hmd headband adjustments
KR102336879B1 (ko) * 2015-05-20 2021-12-08 삼성전자주식회사 화면을 표시하는 전자 장치, 그 제어 방법
CN204650069U (zh) * 2015-06-08 2015-09-16 江苏水晶石信息科技有限公司 防蓝光虚拟现实眼镜
WO2017033777A1 (ja) * 2015-08-27 2017-03-02 株式会社コロプラ ヘッドマウントディスプレイシステムを制御するプログラム
CN108700932B (zh) * 2015-09-24 2021-05-28 托比股份公司 能够进行眼睛追踪的可穿戴设备

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030058543A1 (en) * 2001-02-21 2003-03-27 Sheedy James B. Optically corrective lenses for a head-mounted computer display
US20090128482A1 (en) * 2007-11-20 2009-05-21 Naturalpoint, Inc. Approach for offset motion-based control of a computer
US20130069787A1 (en) * 2011-09-21 2013-03-21 Google Inc. Locking Mechanism Based on Unnatural Movement of Head-Mounted Display
JP2013114491A (ja) * 2011-11-29 2013-06-10 Buffalo Inc 情報表示装置及びプログラム
WO2014155072A2 (en) * 2013-03-25 2014-10-02 Sony Computer Entertainment Europe Limited Display
WO2014156388A1 (ja) * 2013-03-29 2014-10-02 ソニー株式会社 情報処理装置、通知状態制御方法及びプログラム

Also Published As

Publication number Publication date
WO2017055910A1 (en) 2017-04-06
EP3335070B1 (en) 2020-11-25
CN108292040B (zh) 2020-11-06
EP3335070A1 (en) 2018-06-20
JP6548821B2 (ja) 2019-07-24
US20170092235A1 (en) 2017-03-30
CN108292040A (zh) 2018-07-17
US10360877B2 (en) 2019-07-23

Similar Documents

Publication Publication Date Title
JP6548821B2 (ja) ヘッドマウントディスプレイの画面上でコンテンツの配置を最適化する方法
US11816255B2 (en) Head mounted display with adjustable headband
US11724177B2 (en) Controller having lights disposed along a loop of the controller
CN107533230B (zh) 头戴式显示器用追踪***
US10210666B2 (en) Filtering and parental control methods for restricting visual activity on a head mounted display
US10112111B2 (en) Spectator view perspectives in VR environments
US20220253132A1 (en) Systems and methods for determining movement of a controller with respect to an hmd
JP2018129043A (ja) 空間感知を備えるゲーム機
JP2019533226A (ja) 人による追跡装置のオクルージョンの影響を低減するシステム及び方法

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190528

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190625

R150 Certificate of patent or registration of utility model

Ref document number: 6548821

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250