JP2019516261A - インサイドアウト方式のポジション、ユーザボディ、及び環境トラッキングを伴うバーチャルリアリティ及びミックスドリアリティ用ヘッドマウントディスプレイ - Google Patents

インサイドアウト方式のポジション、ユーザボディ、及び環境トラッキングを伴うバーチャルリアリティ及びミックスドリアリティ用ヘッドマウントディスプレイ Download PDF

Info

Publication number
JP2019516261A
JP2019516261A JP2018543195A JP2018543195A JP2019516261A JP 2019516261 A JP2019516261 A JP 2019516261A JP 2018543195 A JP2018543195 A JP 2018543195A JP 2018543195 A JP2018543195 A JP 2018543195A JP 2019516261 A JP2019516261 A JP 2019516261A
Authority
JP
Japan
Prior art keywords
tracking
pair
stereo
hmd device
hmd
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018543195A
Other languages
English (en)
Other versions
JP6824279B2 (ja
Inventor
シモン フォルタン−デシェヌ
シモン フォルタン−デシェヌ
ヴァンサン シャプドレーヌ−クチュール
ヴァンサン シャプドレーヌ−クチュール
ヤン コーテ
ヤン コーテ
アンソニー ガノーム
アンソニー ガノーム
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apple Inc filed Critical Apple Inc
Publication of JP2019516261A publication Critical patent/JP2019516261A/ja
Application granted granted Critical
Publication of JP6824279B2 publication Critical patent/JP6824279B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0134Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

ヘッドマウントディスプレイシステムが、バーチャル又はミックスドリアリティのための精確かつ自動的なインサイドアウト方式の位置、ユーザボディ、及び環境トラッキングを行うための関連技術と共に開示される。システムは、リアルタイムトラッキングを実現するために、コンピュータビジョン法と複数のセンサからのデータ融合を使用する。HMD自体で処理の一部を行うことによって、高フレームレート及びレイテンシの小さいことが実現される。

Description

(関連出願の相互参照)
本出願は、2016年2月18日に出願された米国仮特許出願第62/296,829号の利益を主張し、同文献は、参照により本明細書に援用される。
本発明は、バーチャルリアリティ(VR;virtual reality)又は拡張/ミックスドリアリティ(MR;mixed reality)環境にユーザを没頭させるアプリケーションのために使用されるヘッドマウントディスプレイ(HMD;head-mounted display)の分野に関する。
仮想世界における没頭は、実体のない世界が現実であるかのようにユーザの意識に知覚させることを目的とする。ここで、現実の観念は、現実世界を表すよりもむしろ知覚的な真実味の概念を意味する。バーチャルリアリティ(VR)では、現実世界又は想像上の世界の視覚体験をシミュレートするコンピュータ生成グラフィックを表示することによって、没頭が実現される。没頭の質は、いくつかの重要な要因に支配される。例えば、画質、フレームレート、画素分解能、高ダイナミックレンジ(HDR;high dynamic range)、持続性、及びスクリーンドア効果(すなわち、スクリーン上の画素間の可視ライン)などのディスプレイの特性。没頭体験の質は、表示される視野が狭すぎるときに、又は様々なトラッキング機能が遅い場合及び/又は不精確である場合(シミュレータ酔いとして知られている、方向感覚の喪失及び吐き気を招く)に低下する。没頭は、画質(ノイズ、ダイナミックレンジ、分解能、アーティファクトの欠如)、及び仮想グラフィック(3Dモデリング、テクスチャ、及び照明)とパススルー画像の間の整合性など、カメラシステムの性能によっても影響を受ける。ミックスドリアリティ(MR)では、ユーザにより認識される現実世界の環境に仮想要素がリアルタイムで合成される。仮想要素と現実世界の表面及びオブジェクトとの間の物理的インタラクションをリアルタイムでシミュレートして表示することができる。
様々な要素のトラッキングは、一般に、最高品位のVR及びMRアプリケーション体験を実現するための必須の前提条件として認識される。それらの要素の中でも、ポジションヘッドトラッキング、ユーザボディトラッキング、及び環境トラッキングが、優れた没頭を実現する際の重要な役割を果たす。
ポジションヘッドトラッキング(ここからは、ポジショントラッキングという)は、環境におけるHMDの位置及び向きを推定することを目的としており、レイテンシが小さいことと、精確であることの両方を必要とする。この理由は、VRに完全に没頭させ、MRにおける現実世界に仮想コンテンツを正しく位置合わせするために、レンダリングされたグラフィックをユーザの頭部運動と合致させなければならないからである。いくつかの方法は、略5×5メートル又はそれよりも小さな部屋でのポジショントラッキングを、HMDの外部のセットアップを使用して解決することを試みる。例えば、る、HMDの表面に配置され、頭部位置を推定するために使用されるIR又はRGB発光ダイオード(LED;light-emitting diode)アレイを認識するように、固定式の赤外線(IR;infrared)又はカラー(RGB)カメラを位置決めすることができる。他の方法は、1つ又は2つの基地局によって生成されたIR光により、HMD上に精確に配置された複数のIRフォトセンサと同期して部屋をフラッディング及びスイーピングすることに基づく。フォトセンサの検出時間を考慮することによって、高フレームレートでヘッドポーズをリアルタイムで計算することができる。なお、それら両方のアプローチでは、トラッキングを維持するために、ユーザが移動できるエリアが制限される。ユーザは、IR又はRGBカメラにとって視認でき、又は基地局のIRエミッタにより交互にカバーされる必要がある。遮蔽が、トラッキングの不精確さの原因となることがある。
ユーザボディトラッキングは、HMDに対するユーザの身体(特に、非限定的に手及び指)の位置及び向きを推定する。ユーザボディトラッキングは、VRとMRの両方で、仮想要素とのインタラクションを可能にするユーザ入力手段(例えば、手のジェスチャ)を提供することができる。ハンドトラッキングのためにいくつかのポジショントラッキング法を使用することもできる(例えば、ハンドヘルド型のコントローラ上のLEDアレイを有するIRカメラ)一方で、他の方法は、典型的にHMDから1メートル以内である、より小さな解析空間を利用して、ハンド及びフィンガトラッキングアルゴリズムの頑強性を高める。例えば、近距離の飛行時間型(ToF;Time-of-Flight)カメラをHMDと統合し、又はHMD内に統合することができる。それらのカメラは、手の骨格モデルを構築できる手の深度マップを生じさせることができる。別のアプローチは、手及び指の3Dポイントをセグメント化し推定するために、カメラと共にIR LEDフラッドライトを使用する。
環境トラッキングは、非常に概括的であり、環境中のオブジェクトの認識及びトラッキングを伴う。オブジェクトの概念は、単純な平坦面から、人、半透明オブジェクト、及び光源などの移動するオブジェクトを含むより複雑な形状にまで及ぶ。環境トラッキングは、HMDの近傍の表面及びオブジェクトの位置及び形状を推定する。仮想要素は、検出(推定)されたオブジェクトとインタラクションすることができる。現実のオブジェクトが、オブジェクトから離れて、又はオブジェクトの後方に位置すべき仮想要素によって、意図せずに隠されうる状況を回避するために、トラッキング情報から遮蔽マスクを抽出することができる。実際には、オブジェクト記述を学習及び認識するために使用される、フューチャ(コーナ、エッジなど)及びシーンの深度を回復するために、コンピュータビジョン法が使用される。
トラッキング目的での外部コンポーネントの使用は、典型的に、空間内で移動するユーザの自由度を制限し、HMDが使用可能になる前の較正ステップを追加することが多い。
従って、アプリケーションのための移動を可能にするコンパクトでユーザフレンドリーな製品に必要な全てのトラッキングコンポーネントを統合するHMDが必要である。
本開示の態様によれば、必要な全てのトラッキングコンポーネントを内部に統合し、よりコンパクトなユーザフレンドリーな装置を可能にするウェアラブルヘッドマウントディスプレイ(HMD)が提供される。
本開示の態様によれば、バーチャルリアリティ(VR)又は拡張/ミックスドリアリティ(MR)環境にユーザを没頭させるアプリケーションンのために使用されるヘッドマウントディスプレイ(HMD)装置であって、
赤外線(IR)カットフィルタを有する一対のRGBカメラセンサ及び関連するレンズと、
近赤外線(NIR;near infrared)帯域通過フィルタを有する一対のモノカメラセンサ及び関連するレンズと、
慣性測定ユニット(IMU;inertial measurement unit)と、
関連するIRエミッタを有する飛行時間型(ToF)カメラセンサと、
スペックルパターンプロジェクタと、
ディスプレイと、
一対のRGBカメラセンサ、一対のモノカメラセンサ、IMU、ToFカメラセンサ及び関連するIRエミッタ、スペックルプロジェクタ、並びにディスプレイに少なくとも1つの通信リンクを介して動作可能に接続された少なくとも1つの処理ユニットであって、一対のRGBカメラセンサ、一対のモノカメラセンサ、IMU、及びToFカメラセンサからのデータストリームを使用してグラフィックコンテンツを生成し、ディスプレイを通じてグラフィックコンテンツを表示する少なくとも1つの処理ユニットと、
を備えるHMD装置が提供される。
本開示の態様によれば、一対のRGBカメラセンサと一対のモノカメラセンサは、関連するレンズを有する一対のRGB/IRカメラとして組み合わされ、一対のRGB/IRカメラは、標準的なR−G−G−Bパターンの代わりにR−G−IR−Bパターンを伴うベイヤフォーマットを使用する、上で開示したHMD装置が提供される。
本開示の態様によれば、少なくとも1つの処理ユニットは、記憶された命令を含む関連するメモリを有し、
この命令は、少なくとも1つの処理ユニット上で実行されると、
一対のRGBカメラセンサからパススルーステレオビュー画像を得ることと、
一対のモノカメラセンサからステレオ画像を得ることと、
高密度深度マップを得ることと、
IMUから慣性測定値を得ることと、
パススルーステレオビュー画像、ステレオ画像、高密度深度マップ、及び慣性測定値を使用して、組み込みトラッキングを行うことと、
パススルーステレオビュー画像及びステレオ画像に関する画像処理を行うことと、
ポジショントラッキングに基づいて、レンダリングされたグラフィックを生成することと、
レンダリングされたグラフィックに関するグラフィック画像処理を行うことと、
処理された画像と処理されたレンダリングされたグラフィックを複合し、グラフィックコンテンツを生じさせることと、
グラフィックコンテンツをディスプレイに提供することと
を実行させる、上で開示したHMD装置が提供される。
本開示の態様によれば、組み込みトラッキングを行うことは、ポジショントラッキング及びユーザボディトラッキングを行うことを含み、環境トラッキングを行うことも含む、上で開示したHMD装置が提供される。
本開示の態様によれば、
ポジショントラッキングを行うことは、
パススルーステレオビュー画像及びステレオ画像において不変の2D画像フューチャを回転方向に検出し、スケールすることと、
ステレオマッチングを使用して、検出された各フューチャの深度を推定し、3Dポイントクラウドを生じさせることと、
頭部位置の変化を推測するために3Dポイントクラウドをリアルタイムでトラッキングすることと、
を含み、
ポジショントラッキングを行うことは、パススルーステレオビュー画像及びステレオ画像が十分な情報を提供しないときに、位置変化を一時的に演算するために慣性測定値を使用することを更に含むことができ、
ユーザボディトラッキングを行うことは、
高密度深度マップ上で身体セグメンテーションを行うことと、
高密度深度マップ及び身体セグメンテーションから身体メッシュを抽出することと、
身体メッシュの骨格モデルを抽出することと、
ユーザの身体運動をトラッキングし、ユーザの骨格モデル及び身体運動をジェスチャモデルにマッチングさせることによって、予め定義された姿勢を認識することと、
を含み、
環境トラッキングを行うことは、
パススルーステレオビュー画像、ステレオ画像、及びポジショントラッキングを使用して運動モデルを生成することと、
キーポイントを検出することと、
ロバストなフューチャ記述子を使用して、キーポイントに対して局所的なフューチャを抽出することと、
高密度深度マップを抽出されたフューチャと融合することによって、表面記述子を推定することと、
を含む、上で開示したHMD装置が提供される。
本開示の態様によれば、バーチャルリアリティ(VR)又は拡張/ミックスドリアリティ(MR)環境にユーザを没頭させる方法であって、HMD装置により実施されることを含む方法が提供される。
添付図面を参照して、本開示の実施形態が例としてのみ説明される。
本開示の例示的な実施形態による、いくつかのカメラ及び赤外線(IR)エミッタを備えたユーザ装着型ヘッドマウントディスプレイ(HMD)の概略図である。 バーチャルリアリティとミックスドリアリティの両方を実現するために使用される光学素子、ディスプレイ、及びカメラの例示的な実施形態の概略平面図である。 光学素子の例示的な実施形態の概略図であり、ディスプレイの光線がユーザの目の網膜上にどのように合焦するかを拡大図で例示している。 各機能についての例示的な実施形態に沿った、HMDの視覚生成処理を示すフローチャートである。 パススルー目的(MR)に最適化された2つのRGBカメラと、トラッキング用の視覚データを提供する2つのIRカメラとを有するHMD装置の第1の例示的な実施形態の正面図である。 MRとポジショントラッキングの両方を実現する2つのRGB/IRカメラを有するHMD装置の第2の例示的な実施形態の正面図である。 ポジション及びユーザボディトラッキングを伴うVRを実現する処理ステップのフローチャートである。 ポジション、ユーザボディ、及び環境トラッキングを伴うMRを実現する処理ステップのフローチャートである。 ポジショントラッキングを実現する例示的な処理のフローチャートである。 ユーザボディトラッキングを実現する例示的な処理のフローチャートである。 環境トラッキングを実現する例示的な処理のフローチャートである。 グラフィックレンダリング及び合成を実現する例示的な処理のフローチャートである。 スペックルプロジェクタの概略図である。 時分割多重化セットアップの例示的な実施形態の概略図である。 時分割多重化セットアップのタイミング図である。
異なる図で使用される同様の参照符は、同様の構成要素を示している。
一般的に、本開示の非限定的な例示的な実施形態は、バーチャルリアリティ(VR)とミックスドリアリティ(MR)の両方のコンテキストにおけるユーザエクスペリエンスを向上させるヘッドマウントディスプレイ(HMD)を提供する。HMDは、比較的軽く、人間工学的に快適であり、小さいレイテンシで高分解能コンテンツを提供する。HMDは、高性能グラフィック処理ユニット(GPU;graphical processing unit)を備えた外部コンピュータからのグラフィックコンテンツ、又は組み込み型GPUからのグラフィックコンテンツのいずれかをサポートしており、レンズ歪み及び色収差の補正を伴う組み込みビデオパススルー、並びに小さいレイテンシを保証するグラフィック/パススルー合成など、いくつかの処理をHMDが行うことによって、レイテンシの小さいMRを実現する。必要な全てのトラッキングコンポーネントがHMDに統合される独特のインサイドアウト方式アプローチによって、位置、ユーザボディ、及び環境トラッキングが実現され、外部入力コンポーネントをセットアップ及び使用する必要性が回避される。このアプローチは、ユーザが広い環境内で自由に移動することを可能にする。
VR及びMRのアプリケーションの中でも、いくつかの実施形態が、没頭型のゲーム又はエンターテイメントのアプリケーションに特に有用であり、そのようなアプリケーションでは、いくつかの制御又はインタラクションを、プレイヤーのヘッド及び手の動き並びに外部環境オブジェクトをトラッキングすることによって実現することができる。可能な用途には、一般的な共同トレーニング、販売、支援製造、保守、及び修復のシミュレーションがある。
提案されるHMDシステムは、広角接眼レンズを通してディスプレイをユーザに見せることによって、バーチャルリアリティを実施する。提案される実施形態は、単一の有機発光ダイオード(OLED;organic light-emitting diode)ディスプレイを使用するが、2つの小型ディスプレイ、マイクロディスプレイ又はフレキシブルディスプレイなど、他の種類のディスプレイ製品を使用することができる。MRの場合、最小限、前方を向いた2つのカメラが、ユーザの目にできるだけ近くに位置する視点から環境をキャプチャする(プリズム及び/又はミラーを使用してもよく、使用しなくてもよく、従って、カメラの向きを前向き以外にする必要がある)。カメラ画像は、コンピュータで生成された画像とリアルタイムでマージされ、表示システムに示される。このアプローチでは、ユーザが不透明なディスプレイを通して見ることはできず、むしろ、不透明なディスプレイにより遮蔽されていない場合にユーザの目が認識するであろう画像をキャプチャする。代替的なアプローチは、ユーザが環境を認識することを可能にしながら仮想コンテンツを見ることを可能にする、シースルーディスプレイ(例えば、ガラス、ミラー、及び/又はプリズムで構成される)で使用される。しかし、それらは、典型的には狭い視野を有し、信頼できる没頭感を大幅に減少させる。
カメラの目的は、パススルービューを提供することのみに限定されない。カメラ画像及び統合された慣性測定ユニット(IMU)は、環境を自動的に分析及び理解するためにコンピュータビジョン法により処理可能なデータを提供する。更に、HMDは、パッシブコンピュータビジョン解析のみならず、アクティブコンピュータビジョン解析もサポートするように設計される。パッシブコンピュータビジョン法は、環境からキャプチャされた画像情報を解析する。それらの方法は、モノスコープ(単一カメラからの画像)又はステレオスコープ(2つのカメラからの画像)とすることができる。それらは、非限定的に、フューチャトラッキング、オブジェクト認識、及び深度推定を含む。アクティブコンピュータビジョン法は、カメラにとっては可視であるが、人の視覚系にとっては必ずしも可視ではないパターンを投影することによって、環境に情報を追加する。このような技法は、ステレオマッチング問題を単純化するために、飛行時間型(ToF)カメラ、レーザ走査又は立体照明を含む。シーン深度の再構成を実現するために、アクティブコンピュータビジョンが使用される。赤外線(IR)プロジェクタを使用して、ランダムなIRスペックルパターンが環境に投影され、ステレオマッチングが曖昧な場合にステレオマッチングを容易にするためにテクスチャ情報(例えば、一様なテクスチャ又は表面)が追加される。いくつかの実施形態では、ToFカメラが含まれてもよい。低照明又は無照明条件の場合にIRフラッドライトを使用してトラッキングをサポートするために、アクティブコンピュータビジョンが使用される。
前述の機能は、HMDを独特なものとし、広範な用途で使用するのに適したものとする。例えば、HMDは、記録目的又はリアルタイム視覚処理用のステレオカメラとして使用することができる。HMDは、環境スキャナ(アクティブステレオ)として使用することもできる。HMDのコンテキストにおいて、コンピュータビジョン法は、異種センサからのデータを使用して、頭部位置、ユーザボディ、及び環境を自動的にトラッキングする。しかし、パッシブフューチャトラッキング及びアクティブステレオビジョンを実施する可能性を有する、そのような製品アセンブリを現実化することは、性能面で困難である。このことは、良好な没頭を実現するためにレイテンシの小さいシステムが必要であること、並びにユーザの快適性及び使い易さを更に確保するために重量/人間工学を最適化する必要があることを考慮するときに、特に当てはまる。HMDとの関連でレイテンシとは、キャプチャされたデータ(IMU、画像)と、表示される対応するコンテンツとの間の時間間隔である。優れた没頭を生じさせ、酔い及び吐き気を回避するために、20msよりも小さいレイテンシを実現しなければならない。小さなレイテンシは、より多くの処理能力を利用可能である外部コンピュータの支援により、処理をHMD自体で実施する/HMD自体に組み込むことによって実現される。処理ユニットがより小型になり、より少ない電力を消費することによって進化するにつれ、HMD自体で全ての処理を行うことができる。組み込み処理は、高分解能カメラ画像を外部コンピュータに転送することを回避し、それによって転送帯域幅及びレイテンシの要件を低減する。実際には(特に)、コンピュータビジョン処理及びグラフィックレンダリングを外部コンピュータ上で大部分を行うことができるが、HMDは、同期、合成、ディベイヤリング、表示のための画像歪みの補正、及びレンダリングされたグラフィックとカメラ画像のMR合成のようなカメラ画像信号処理(ISP;image signal processing)機能を最小限行わなければならない。
このため、HMDは、位置、ユーザボディ、及び環境トラッキングを実現するためにパッシブ又はアクティブステレオビジョン法を適用するための必要なコンポーネントを含むように設計される。HMDは、環境に視覚情報を追加するいくつかのサードパーティの外部エミッタとの互換性も有することができる。例えば、環境へのテクスチャパターンの投影は、ステレオマッチングを助けることができる。実際のトラッキングアルゴリズムは、典型的に、ステレオマッチング、IMUデータ統合、フューチャ検出/トラッキング、オブジェクト認識、及び表面フィッティングを伴う。しかし、HMDは、カスタムアルゴリズムを実施できるように、データストリームをサードパーティのソフトウェア開発者に利用可能にする。
図1を参照すると、本開示の例示的な実施形態によるヘッドマウントディスプレイ(HMD)(7)が示されている。HMD(7)は、ハーネス(4)を介してユーザ(1)の頭部に取り付けられ、ミックスドリアリティ(MR)及びインサイドアウト方式の位置、ユーザボディ、及び環境トラッキングを実現する複数のセンサ、すなわち、パススルー目的の2つのRGBカメラ(11、12)と、ステレオビジョン解析用の2つの赤外線(IR)カメラ(2、9)と、慣性測定ユニット(IMU)(図示していない)と、IRエミッタ(14)を有する高密度深度検知用の飛行時間型(ToF)カメラ(13)とを統合する。低照明条件で環境を照明するために、IR発光ダイオード(LED)エミッタ(5、8、10、15)の集合体も統合される。HMD(7)は、アクティブステレオコンピュータビジョンを実現し、3次元(3D)高密度マップを抽出するIRスペックルプロジェクタ(6)も備える。様々なデータストリーム(カメラ画像、IMUデータ)がキャプチャされ、任意に圧縮された後に、HMD(7)又は外部コンピュータの一部でありうる処理ユニット(21)に送信される。HMD(7)と処理ユニット(21)の間の通信が、有線、無線又は両方の組合せでありうる通信リンク(17、18)によって行われる。処理ユニット(21)がHMD(7)の一部である代替的な実施形態では、通信リンク(18、17)を省略してもよい。処理ユニット(21)は、HMD(7)に表示されるグラフィックコンテンツ(ゲームビュー、映像、仮想オブジェクト等)をレンダリングする。HMD(7)は、パワーリンク(19)を介して電源(20)により電力供給される。代替的な実施形態では、電源(20)は、HMD(7)内に統合されてもよい。
図2Aを参照すると、VR及びMRを実現するための例示的なHMD(7)が示されている。HMD(7)を装着しているユーザ(1)は、広角接眼レンズ(26、35)を通してディスプレイ(27)を見る。目(22、38)の正面に位置する2つのRGBカメラ(28、34)が、HMD(7)により遮蔽されていなければユーザの目が認識するであろう環境をキャプチャする。なお、図は、HMD(7)に必要なカメラのみを含んでおり、コンピュータビジョン解析に使用する他のカメラを含んでいない。例示的な実施形態では、カメラ(28、34)のベースライン(39)は、人の平均的な眼間隔である64mmであり(なお、カメラベースラインは、64mm以外とすることができる)、カメラ(28、34)の位置は、ユーザの視覚の非整合性を最小にするためにユーザの目(22、38)と適切に位置合わせされる。カメラ(28、34)の視野(29、30、32、33)は、目(22、38)の視野(23、25、36、37)に合致しなければならない。
図2Bは、ディスプレイ(27)により放射された光線(44、46、48)がどのように、接眼レンズ(26、35)を透過して網膜(53)に再び合焦する(52、54、55)かを例示している。接眼レンズ(26、35)に対する瞳(51)の位置、及び接眼レンズ(26、35)からディスプレイ(27)までの距離は、正しい焦点(すなわち、それぞれ距離50、57)を得るために調整する必要がある。なお、図は単一の波長を示しており、接眼レンズ(26、35)は、補償する必要がある色収差を典型的に生じさせる。
HMDは、以下の機能、すなわち、表示システム用のステレオ画像(パススルーステレオビューと呼ぶ)、トラッキング目的のステレオ画像、高密度深度検知(中近距離)、及び慣性測定を可能にする視覚データストリームを提供する。例示の実施形態では、近距離の深度検知は、1.5mよりも近いと見なされる一方、中距離の深度検知は、1mよりも更に離れた深度(約4〜5メートルまで)をカバーすると見なされる。
図3は、HMDの例示的な実施形態の視覚生成処理を示している。パススルーステレオビュー(102)が、RGBステレオカメラ(104)によりキャプチャされる。トラッキング用のステレオ画像(106)も、RGBステレオカメラ(104)によりキャプチャすることができ、むしろ低照明条件では、IRフラッドライト(110)で支援されたIRステレオカメラ(108)によりキャプチャすることができる。高密度深度検知(112)は、ステレオマッチングを実施するのに十分な視覚情報がない場合、深度を回復するために、投影されるIR情報を追加することを必要とする。例示の実施形態では、高密度深度マップを提供するために2つの解決策が使用される。第1に、ToFカメラ(114)が、関連するIRエミッタ(110)から光線が出て反射してToFカメラセンサ(108)に戻るまでに要する時間に基づいて、深度を取り戻す。第2に、IRスペックルパターン(116)が環境に投影され、IRステレオカメラ(108)により認識される。後者は、演算コストが高いステレオマッチングを必要とする一方で、典型的には前者の解決策よりも高い分解能の深度マップを提供する。コスト目標、市場の種類、技術的アプローチ、装置の分解能、性能及び機能セットに応じて、実施形態の異なる選択を行うことができ、いくつかの機能ブロックを組み合わせることができる。IMU(120)による慣性測定値(118)もキャプチャされ、組み込み型トラッキングモジュール(122)に提供される。コンピュータビジョン処理及びグラフィックレンダリング(124)の一部を外部コンピュータ上で行ってもよい一方で、システム全体のレイテンシを低減するために、画像処理ステップのいくつかをHMD自体で行う必要がある。図3では、カメラ画像処理モジュール(126)は、トリガ制御、ディベイヤリング、自動ホワイトバランス、欠陥画素置換、フラットフィールド補正、フィルタリング(ノイズ低減、エッジ強調)、歪み及び収差補正などのいくつかのタスクを行う。グラフィック画像処理モジュール(128)は、復号(例えば、色及びアルファチャネル)、歪み及び収差補正を行う。合成モジュール(130)は、レンダリングされたグラフィックとカメラ画像を複合し、得られた画像は、ディスプレイ(27)に表示される。
図4A及び図4Bには、HMD(7)の例示的な実施形態がより詳細に示されている。図4Aに示す第1の例示的な実施形態では、HMD(7)は、より良好なパススルー品質のために、IRカットフィルタを有する2つのRGBカメラセンサ(62、64)及びレンズ(63、65)を有する。HMDは、コンピュータビジョン解析用に最適化された近赤外線(NIR)帯域フィルタを有する2つのモノカメラセンサ(66、68)及びレンズ(67、69)も統合する。他のコンポーネントとしては、ディスプレイ(27)と、9自由度IMU(70)(ジャイロスコープ、加速度計、及び磁力計で構成される)と、関連するIRエミッタ(73)を有するToFカメラセンサ(72)とが挙げられる。低照明条件でのポジショントラッキングを向上させるために、LEDフラッドライト(74、75、76、77)が使用される。ステレオマッチングによる高密度深度マップの結果を向上させるように環境にテクスチャを追加するために、スペックルプロジェクタ(78)が使用される。図4Bに示す第2の例示的な実施形態では、HMD(7)は、3つのカメラのみ、すなわち、レンズ(83、85)及びLEDフラッドライト(86、87、88、89)を有する2つのRGB/IRカメラ(82、84)(RGB/IRセンサは、標準R−G−G−Bパターンの代わりにR−G−IR−Bパターンを伴うベイヤフォーマットを使用する)と、ToFカメラセンサ(72)及び関連するIRエミッタ(73)とを使用する。2つのRGB/IRカメラ(82、84)のみで必要な4つの機能を全て実現することができるが、その結果は、目的に応じて要件が異なるので、最適化されないことが多い。特に、RGB/IRセンサを使用するときには、とりわけ画素飽和が存在する場合、RGB信号とIR信号をいつも明確に分離できるとは限らない。図4Aの例示的な実施形態で説明するように、2つのカメラ対(62、64、66、68)(一方がパススルー目的であり、一方がトラッキング用である)を使用することによって、使用基準を最適化することができる。例えば、画質を向上させるために、パススルーセンサ(62、64)及びトラッキングセンサ(66、68)にそれぞれRGB帯域フィルタ及びIR帯域フィルタを設置することができる。更に、広視野をキャプチャし、人の視覚系に一致させるために、パススルーカメラは、魚眼レンズの使用を必要とする。しかし、これらのレンズは、高いトラッキング精度を得るために必要な角度分解能を低下させる。アクティブステレオビジョン法においてスペックルパターンをマッチングさせる可能性を高めるために、トラッキングセンサとアクティブ深度マップセンサの両方が、高い信号対ノイズ比(SNR;signal-to-noise ratio)を有する必要がある。この目標をより良好に達成するために、HMD(7)上のセンサ配置を最適化することもできる。なお、三角測量ステレオマッチにより行われる、環境中での深度推定の精度を高めるために、トラッキングセンサ(66、68)は、人の眼間隔よりも大きなベースラインに配置される。トラッキングセンサ(66、68)をパススルーセンサ(62、64)と共通の軸線に沿って配置することによって、一方のセンサ対から他方のセンサ対にデータを組み合わせたり再マッピングしたりすることが容易になる。
図5及び図6はそれぞれ、VR及びMRを実現するために必要なデータ及び処理ステップを示している。リンクLは、レイテンシの小さい制御されたデータストリーム及びレイテンシジッタが最小の処理を表す。トラッキングセクション(142)及びレンダリングセクション(144)は、実施形態に応じて、HMD(7)自体又は外部コンピュータ上で部分的又は全体的に実行することができる。深度演算(156)は、実施形態がどの深度検知コンポーネント(すなわち、ToFカメラ、IRステレオマッチング又は両方)を使用するかに応じて、多少なりとも演算集約的となりうることに留意されたい。
トラッキング処理(142、144)(すなわち、位置(154)(向き決定(152)を含む)、ユーザボディ(158)及び環境(160)トラッキング)、グラフィックレンダリング(124)、深度マップ推定(156)、IR時分割多重化、並びにハードウェアコンポーネントのいくつか、すなわち、スペックルプロジェクタ(78)及びIRフィルタIRカメラセンサ(66、68)のそれぞれについて、更に説明する。ここで説明するトラッキング処理(142、144)は、入力データを仮定した例示的なトラッキング処理であることを理解されたい。データストリーム(IMUデータ、画像)は、自己のトラッキングアルゴリズムを設計及び実施できるように、サードパーティのソフトウェア開発者に利用可能となる。
ポジショントラッキング
図7は、ポジショントラッキング(154)を実現する例示的な処理のフローチャートを示している。処理は、自己位置推定とマッピングの同時実行(SLAM;simultaneous localization and mapping)アルゴリズムのクラスに属する。アクティブステレオにより与えられる高密度深度マップを3Dフューチャ(2Dフューチャがテクスチャに基づく一方で、3Dフューチャは、深度に基づき、クラウドポイントから抽出できることに留意されたい。)を検出及びトラッキングするために使用できるが、ここでは低密度マッチングアプローチについて説明する。これは、そのアプローチが、リアルタイム制約を有するシナリオに一層良好に適合するためである。アルゴリズムの入力は、トラッキング用のステレオ画像(202)とIMUデータ(204)である。第1に、処理は、ステレオ画像において不変の2D画像フューチャを回転方向に検出し(206)、スケールする(208)。次に、ステレオマッチングを使用して各フューチャの深度が推定される(210)。この処理は、3Dポイントクラウドを生じさせ(212)、クラウドは、頭部位置の変化を推測するためにリアルタイムでトラッキングされる(214)。環境が静的であると仮定されるので、剛体運動仮定を伴うRANSAC法によって、移動する人又はオブジェクトのフューチャがフィルタ除去される。トラッキング画像が十分な情報を提供しない場合には、位置変化を一時的に演算するために、ジャイロスコープ及び加速度計データが使用される(216)。
ユーザボディトラッキング
図8は、ユーザボディトラッキング(158)を実現する例示的な処理のフローチャートを示している。バーチャルリアリティでは、没頭を実現するために、ユーザの身体が描写され認識される必要がある。このために、トラッキングが行われる視野は、パススルーカメラの視野に一致すべきである。ToFカメラセンサ(72)は、低分解能をもたらすが、相対的に狭い視野内(例えば、水平方向に90度)の近距離深度データを得る直接的な解決策をもたらす。この観点から、LEDフラッドライト(74、75、76、77)で支援されたステレオカメラ(66、68)が、より多くの画像処理演算時間という代償を払って、より良好な分解能をもたらす。例示的な処理では、近距離3Dデータを検出することによって、むしろ、LEDフラッドライト(74、75、76、77)を使用するときに強度に閾値を適用することによって、深度(156)及び身体セグメンテーション(302)情報から身体メッシュ(304)が抽出される。次に、メッシュから骨格モデル(306)が抽出される。最後に、身体運動をトラッキングし、骨格形状及び運動をジェスチャモデルにマッチングさせることによって、予め定義されたジェスチャが最終的に認識される(308)。認識されたジェスチャの種類、位置、及び身体ステレオマスク(310)は、グラフィックレンダリング(124)のために提供される。
環境トラッキング
図9は、環境トラッキングを実現する例示的な処理のフローチャートを示している。トラッキングフレームワークへの入力は、カラーステレオ画像(106)、アクティブステレオ法及び/又はToFカメラ(72)により推定された深度マップ(112)、並びにポジショントラッキングの出力からのXYZ位置(154)である。処理は、ポジショントラッキングの出力を活用し、従前に推測されたオブジェクト位置を利用する効率を向上させるために、運動モデル(402)を包含する。例えば、運動モデル(402)は、粒子フィルタ又はカルマンフィルタを使用して構築することができる。次に、処理は、Harrisコーナ、不変のHuモーメント又はHessian行列式に基づく局所的な極値点など、関心のあるキーポイントを検出する(404)。そのようなキーポイントに対して局所的なフューチャは、勾配ヒストグラム又はHaar−likeフューチャ記述子などのロバストなフューチャ記述子により抽出される(406)。ポジショントラッキングによく類似しており、環境は静的であると仮定される。これにより、移動するフューチャが、剛体運動仮定を伴うRANSAC法によりフィルタ除去される。それらのフューチャをトラッキング及び認識するためのモデルを教示するために、サポートベクトルマシンなどの分類アルゴリズム(408)が利用される。最後に、高密度深度マップ(112)をフューチャ認識ステージの出力(410)と融合することによって、表面記述子が推定される(414)。
ミックスドリアリティの合成
ステレオパススルーカメラ(62、64)と仮想画像要素のリアルタイム融合を実現するために、HMD(7)上で合成が行われる。これにより、パススルーカメラの高分解能ストリームを外部コンピュータに送信することが回避される。これにより、必要な転送帯域幅を狭くし易くなり、全体的なレイテンシが低減する。以下の状況を特定するために、8ビットのアルファマスクAが使用される。
(i)仮想グラフィックが不透明である場合、A=255
(ii)仮想グラフィックがいくらかの透明性を有する場合、0<A<255
(iii)仮想グラフィックが不可視である場合(A=0)。
仮想オブジェクトがユーザの手(16)又は環境中の他のオブジェクトにより遮蔽されている場合には、仮想オブジェクトを不可視とすべきことに留意されたい。各画素の計算深度を(1又は複数の)仮想オブジェクトの深度と比較することによって、遮蔽マスクを求めることができる。カメラ画像は、画素チャネル毎に以下の線形モデルに従って相応にブレンドされる:Ik[R,G,B]*Ak[R,G,B]+Jk[R,G,B]*(1−Ak[R,G,B])、ここで、Ikが、画素kでの仮想色であり、Jkが、画素kでのカメラ色である。なお、アルファマスクAは、各色チャンネル[R,G,B]で異なる必要がある。これは、接眼レンズの色収差を補正するために、各チャンネルが再マッピングされるからである。この再マッピングが外部コンピュータ上で行われる場合、画素当たり合計6チャネル(すなわち、R、G、B、Ar、Ag、及びAb)をHMD(7)に送信する必要がある。図10は、グラフィックレンダリング及び合成(130)を実現する例示的な処理のフローチャートを示している。データは、ホストコンピュータ(90)上で符号化され、画素当たり24ビットの標準フォーマットで送信され、HMD(7)で復号される。3つの色チャネルは、YUV422を使用して2つのチャネルに符号化され、2つのアルファチャネルは、単一のベイヤチャネルにマッピングされる。仮想シーンをレンダリングするときにアルファブレンディングを使用するため、出力色は、実際の色Ik[R,G,B]ではなく、実際にはIk[R,G,B]*Ak[R,G,B]となることに留意されたい。しかし、これは、カメラ画像を合成するときに、ブレンディング式の第1項に相当するので、問題にならない。
IRスペックルプロジェクタ
HMD(7)は、アクティブステレオマッチングにより推定された高密度深度マップの品質を向上させるために、シーンに固定パターンを投入/投影するスペックルプロジェクタ(78)を含む。(HMDの外部の)基地局が、環境に静止テクスチャポイントをいくつか投影する利点をもたらす一方で、部屋全体を単一の基地局でカバーするのは、遮蔽のため困難である。解決策として、HMD(7)にプロジェクタを組み込むことは、ユーザが見ている場所を常に投影しながら、(基地局をセットアップする必要なしに)部屋の中を動き回る柔軟性をもたらす。スペックルプロジェクタ(78)の2つの実施形態が提示される。図11に示す第1の実施形態では、スペックルプロジェクタ(78)は、表面ディフューザを透過するレーザビームの干渉パターンを生成する。この場合、スペックルプロジェクタ(78)により生成されるパターンはランダムであり、拡散面上の異なるサイズのスポットにビームを合焦させること、又は拡散面を変更することのいずれかによって、その粒状性を調整することができる。第2の実施形態では、スペックルプロジェクタ(78)は、1つ又は多くの回折光学素子を透過するレーザビームの遠視野回折によるスペックルパターンを生成する。信号対ノイズ比(SNR)は、偏光子を追加することにより大幅に向上する。いくつかの屈折、反射又は吸収光学素子をビーム整形のために追加することができる。典型的には、レンズが常に存在する。レーザパワーの高いゾーンへのアクセスを制限するために、保護ハウジングを追加することができる。
高密度深度マップ
標準的なステレオ深度マップ法が、第1の画像中の各画素について、第2の画像中の最良の画素マッチを見出す。単一の画素のみに代えて画素の近傍も考慮することができる。マッチは、通常、最小の画素強度差(又は、近傍が使用されるときには差の和)を求めることを含む。前処理ステップとして、マッチ用の探索空間が単一の水平ラインとなるように、画像が修正される。ステレオビジョンを使用して深度マップを計算すると、典型的には、特有のステレオマッチングに使用することができる十分なテクスチャがないシーンの領域(例えば、白色の壁又は表面上の一様なフューチャ又はブロック)にエラー又はギャップが生じる。ランダム赤外線(IR)スペックルパターンプロジェクタ(78)は、この問題を克服するために使用される。スペックルプロジェクタ(78)は、高密度深度マップを生成するためにシーンにテクスチャを追加する。RGB/IRセンサ(82、84)を使用する場合、RGB−D出力(色+深度)が直接利用可能である。あるいは、パススルービューの色を深度マップ上にマッピングすることができる。
時分割多重化
IRステレオカメラの対(すなわち、RGB/IRカメラ(82、84))をステレオトラッキングと高密度深度検知の両方に使用する場合、矛盾が生じる。これは、環境フューチャをトラッキングしながらスペックルパターンを使用することができないためである。HMD(7)の正面に投影された追加スペックルパターンは、2つの重複信号、すなわち、固定スペックルパターンと、ユーザ(1)のヘッド運動に応じて画像中を移動する環境フューチャとを生成する。これを克服するために、スペックルパターンプロジェクタ(78)と任意のIRフラッドライトが、連続的に照明される代わりにインターリーブ方式でストロボされる時分割多重化を使用して、それにより出力レートを半減させてもよい。図12Aは、時分割多重化セットアップの例示的な実施形態の概略図を示しており、セットアップ例が、2つのカメラ(82、84)、IRスペックルプロジェクタ(78)、IRフラッドライト(79)、並びにトリガ及びストロボコントローラ(91)を使用する。コントローラ(91)は、カメラ(82、84)の露光をプロジェクタ(78)及びフラッドライト(79)のストロボと同期させるために使用される。図12Bは、時分割多重化セットアップのタイミング図を示している。スペックルパターンプロジェクタ(78)がアクティブにされたフレームと、フラッドライト(79)がアクティブにされたフレームが、点線と破線でそれぞれ示されている。時分割多重化アプローチは、HMD(7)が最高フレームレート(例えば、90fps)で視覚センサから画像を取得することを可能にし、その結果、HMD(7)は、高密度深度マップ及び2次元(2D)フューチャ記述子を最高フレームレートのそれぞれ半分(例えば、45fps)で抽出することができる。このように、カメラ(82、84)の時分割多重化又はインターリーブされた出力は、2Dフューチャ抽出、3Dフューチャ抽出、及び高密度深度マップ推定に有用でありうる情報を提供する。
IR波長及びフィルタ
図4Aに例示するHMD(7)の例示的な実施形態は、いくつかのIRエミッタ及びセンサ、すなわち、スペックルプロジェクタ(78)、LEDフラッドライト(74、75、76、77)、ToFカメラセンサ(72)、並びにIRカメラセンサ(66、68)で構成される。信号の干渉及び飽和を最小化するために、ToFカメラセンサ(72)は、他のエミッタとは異なる波長を有利に使用する。例えば、スペックルプロジェクタ(78)及びLEDフラッドライト(74、75、76、77)が808nmの波長を使用する一方で、ToFカメラセンサ(72)は、850nm又は940nmの波長を使用することができる。IRカメラセンサ(66、68)は、その同一波長を中心とするIR帯域フィルタを有する。画像飽和を回避し、ダイナミックレンジを最大化するために、カメラ露光時間、センサ利得、及びLEDフラッドライト(74、75、76、77)とスペックルプロジェクタ(78)のスペックルパターンの両方の強度が、リアルタイムで変調されることに留意されたい。
本開示は、特定の非限定的な例示的な実施形態及びその例によって説明されてきたが、以下で請求されるような本開示の範囲から逸脱せずに、特定の本実施形態に変更を適用しうることは、当業者にとって明らかであろう。

Claims (54)

  1. バーチャルリアリティ(VR)又は拡張/ミックスドリアリティ(MR)環境にユーザを没頭させるアプリケーションで使用されるヘッドマウントディスプレイ(HMD)装置であって、
    赤外線(IR)カットフィルタを有する一対のRGBカメラセンサ及び関連するレンズと、
    近赤外線(NIR)帯域フィルタを有する一対のモノカメラセンサ及び関連するレンズと、
    慣性測定ユニット(IMU)と、
    関連するIRエミッタを有する飛行時間型(ToF)カメラセンサと、
    スペックルパターンプロジェクタと、
    ディスプレイと、
    前記一対のRGBカメラセンサ、前記一対のモノカメラセンサ、前記IMU、前記ToFカメラセンサ及び関連するIRエミッタ、前記スペックルプロジェクタ、並びに前記ディスプレイに少なくとも1つの通信リンクを介して動作可能に接続された少なくとも1つの処理ユニットであって、前記一対のRGBカメラセンサ、前記一対のモノカメラセンサ、前記IMU、及び前記ToFカメラセンサからのデータストリームを使用してグラフィックコンテンツを生成し、前記ディスプレイを通じて前記グラフィックコンテンツを表示する少なくとも1つの処理ユニットと、
    を備えるHMD装置。
  2. 前記一対のモノカメラセンサは、三角測量ステレオマッチにより行われる、環境中での深度推定の精度を高めるために、人の眼間隔よりも大きなベースラインに配置されている、請求項1に記載のHMD装置。
  3. 前記一対のモノカメラセンサと前記一対のRGBカメラセンサは、共通軸線に沿って配置されている、請求項1又は2に記載のHMD装置。
  4. 前記一対のRGBカメラセンサと前記一対のモノカメラセンサは、関連するレンズを有する一対のRGB/IRカメラとして組み合わされ、前記一対のRGB/IRカメラは、標準的なR−G−G−Bパターンの代わりにR−G−IR−Bパターンを伴うベイヤフォーマットを使用する、請求項1に記載のHMD装置。
  5. IRフラッドライトを更に備え、前記スペックルパターンプロジェクタ及び前記IRフラッドライトは、インターリーブ方式でストロボされる、請求項4に記載のHMD装置。
  6. 前記IMUは、ジャイロスコープ、加速度計、及び磁力計で構成される9自由度IMUである、請求項1から5のいずれか一項に記載のHMD装置。
  7. 低照明条件でのポジショントラッキングを向上させる複数のLEDフラッドライトを更に備える、請求項1から6のいずれか一項に記載のHMD装置。
  8. 前記少なくとも1つの通信リンクは、有線、無線又は両方の組み合わせである、請求項1から7のいずれか一項に記載のHMD装置。
  9. 前記一対のRGBカメラセンサ、前記一対のモノカメラセンサ、前記IMU、及び前記ToFカメラセンサからの前記データストリームは、圧縮されている、請求項1から8のいずれか一項に記載のHMD装置。
  10. 前記少なくとも1つの処理ユニットは、リモートコンピュータにより提供される、請求項1から9のいずれか一項に記載のHMD装置。
  11. 前記少なくとも1つの処理ユニットは、少なくとも2つの処理ユニットを含み、前記少なくとも2つの処理ユニットのうちの第1の処理ユニットが前記HMDにより提供され、前記少なくとも2つの処理ユニットのうちの第2の処理ユニットがリモートコンピュータにより提供される、請求項1から9のいずれか一項に記載のHMD装置。
  12. 前記スペックルプロジェクタは、表面ディフューザを透過するレーザビームの干渉パターンを生成する、請求項1から11のいずれか一項に記載のHMD装置。
  13. 前記スペックルプロジェクタは、少なくとも1つの回折光学素子を透過するレーザビームの遠視野回折によるスペックルパターンを生成する、請求項1から11のいずれか一項に記載のHMD装置。
  14. 前記少なくとも1つの処理ユニットは、記憶された命令を含む関連するメモリを有し、前記命令は、前記少なくとも1つの処理ユニット上で実行される時に、
    前記一対のRGBカメラセンサからパススルーステレオビュー画像を得ることと、
    前記一対のモノカメラセンサからステレオ画像を得ることと、
    高密度深度マップを得ることと、
    前記IMUから慣性測定値を得ることと、
    パススルーステレオビュー画像、ステレオ画像、高密度深度マップ、及び慣性測定値を使用して、組み込みトラッキングを行うことと、
    前記パススルーステレオビュー画像及び前記ステレオ画像に関する画像処理を行うことと、
    ポジショントラッキングに基づいて、レンダリングされたグラフィックを生成することと、
    前記レンダリングされたグラフィックに関するグラフィック画像処理を行うことと、
    処理された画像と前記処理されたレンダリングされたグラフィックを複合し、前記グラフィックコンテンツを生じさせることと、
    前記グラフィックコンテンツを前記ディスプレイに提供することと、
    を行う、請求項1から13のいずれか一項に記載のHMD装置。
  15. 前記画像処理は、トリガ制御、ディベイヤリング、自動ホワイトバランス、欠陥画素置換、フラットフィールド補正、ノイズ低減、エッジ強調、歪み補正、及び収差補正のうちの少なくとも1つを含む、請求項14に記載のHMD装置。
  16. 前記高密度深度マップは、前記関連するIRエミッタから光線が出て反射して前記ToFカメラに戻るまでに要する時間に基づいて、前記ToFカメラセンサから得られる、請求項14に記載のHMD装置。
  17. 前記高密度深度マップは、前記スペックルプロジェクタにより投影されたスペックルパターンの反射をキャプチャする前記一対のモノカメラセンサから得られる、請求項14に記載のHMD装置。
  18. 前記組み込みトラッキングを行うことは、ポジショントラッキング及びユーザボディトラッキングを行うことを含む、請求項14に記載のHMD装置。
  19. 前記組み込みトラッキングを行ことは、環境トラッキングを行うことを更に含む、請求項18に記載のHMD装置。
  20. 前記ポジショントラッキングを行うことは、
    パススルーステレオビュー画像及びステレオ画像において不変の2D画像フューチャを回転方向に検出し、スケールすることと、
    ステレオマッチングを使用して、検出された各フューチャの深度を推定し、3Dポイントクラウドを生じさせることと、
    頭部位置の変化を推測するために前記3Dポイントクラウドをリアルタイムでトラッキングすることと、
    を含む、請求項18又は19に記載のHMD装置。
  21. 前記ポジショントラッキングを行うことは、前記パススルーステレオビュー画像及び前記ステレオ画像が十分な情報を提供しないときに、位置変化を一時的に演算するために前記慣性測定値を使用することを更に含む、請求項20に記載のHMD装置。
  22. 前記ユーザボディトラッキングを行うことは、
    前記高密度深度マップ上で身体セグメンテーションを行うことと、
    前記高密度深度マップ及び前記身体セグメンテーションから身体メッシュを抽出することと、
    前記身体メッシュの骨格モデルを抽出することと、
    前記ユーザの身体運動をトラッキングし、前記ユーザの前記骨格モデル及び前記身体運動をジェスチャモデルにマッチングさせることによって、予め定義されたジェスチャを認識することと、
    を含む、請求項18から21のいずれか一項に記載のHMD装置。
  23. 前記環境トラッキングを行うことは、
    パススルーステレオビュー画像、ステレオ画像、及びポジショントラッキングを使用して運動モデルを生成することと、
    キーポイントを検出することと、
    ロバストなフューチャ記述子を使用して、キーポイントに対して局所的なフューチャを抽出することと、
    高密度深度マップを抽出されたフューチャと融合することによって、表面記述子を推定することと、
    を含む、請求項19から22のいずれか一項に記載のHMD装置。
  24. キーポイントは、Harrisコーナ、不変のHuモーメント又はHessian複合現実合成の行列式に基づく局所的な極値点のうちの少なくとも1つを含む、請求項23に記載のHMD装置。
  25. 前記ロバストなフューチャ記述子は、勾配ヒストグラム記述子又はHaar−likeフューチャ記述子である、請求項23に記載のHMD装置。
  26. 前記キーポイントに対して局所的なフューチャを抽出することは、分類アルゴリズムを使用することを含む、請求項23に記載のHMD装置。
  27. 前記分類アルゴリズムはサポートベクトルマシンに基づく、請求項23に記載のHMD装置。
  28. 前記ToFカメラセンサは、前記スペックルパターンプロジェクタとは異なる波長を使用する、請求項1から27のいずれか一項に記載のHMD装置。
  29. 前記ToFカメラセンサは、前記LEDフラッドライトとは異なる波長を使用する、請求項7から27のいずれか一項に記載のHMD装置。
  30. バーチャルリアリティ(VR)又は拡張/ミックスドリアリティ(MR)環境にユーザを没頭させるための方法であって、
    赤外線(IR)カットフィルタを有し、関連するレンズを有する一対のRGBカメラセンサからパススルーステレオビュー画像を得ることと、
    近赤外線(NIR)帯域フィルタを有する一対のモノカメラセンサ及び関連するレンズからステレオ画像を得ることと、
    慣性測定値を得ることと、
    関連するIRエミッタを有する飛行時間型(ToF)カメラセンサから高密度深度マップを得ることと、
    スペックルパターンを投影することと、
    前記パススルーステレオビュー画像、前記ステレオ画像、前記慣性測定値、及び前記高密度深度マップを使用してグラフィックコンテンツを生成することと、
    前記グラフィックコンテンツを前記ユーザに対して表示することと、
    を含む、方法。
  31. 前記一対のモノカメラセンサは、三角測量ステレオマッチにより行われる、環境中での深度推定の精度を高めるために、人の眼間隔よりも大きなベースラインで配置される、請求項30に記載の方法。
  32. 前記一対のモノカメラセンサと前記一対のRGBカメラセンサは、共通軸線に沿って配置される、請求項30又は31に記載の方法。
  33. 前記一対のRGBカメラセンサと前記一対のモノカメラセンサは、関連するレンズを有する一対のRGB/IRカメラとして組み合わされ、前記一対のRGB/IRカメラは、標準的なR−G−G−Bパターンの代わりにR−G−IR−Bパターンを伴うベイヤフォーマットを使用する、請求項30に記載の方法。
  34. 前記スペックルパターンと、IRフラッドライトからの光とをインターリーブ方式でストロボすることを更に含む、請求項33に記載の方法。
  35. 前記慣性測定値は、ジャイロスコープ、加速度計、及び磁力計で構成される9自由度IMUにより提供される、請求項30から34のいずれか一項に記載の方法。
  36. 低照明条件でのポジショントラッキングを向上させる複数のLEDフラッドライトから光を放出することを更に含む、請求項301から35のいずれか一項に記載の方法。
  37. 前記スペックルパターンは、表面ディフューザを透過するレーザビームにより生成される干渉パターンである、請求項30から36のいずれか一項に記載の方法。
  38. 前記スペックルパターンは、少なくとも1つの回折光学素子を透過するレーザビームの遠視野回折により生成される、請求項30から36のいずれか一項に記載の方法。
  39. パススルーステレオビュー画像、ステレオ画像、高密度深度マップ、及び慣性測定値を使用して、組み込みトラッキングを行うことと、
    前記パススルーステレオビュー画像及び前記ステレオ画像に関する画像処理を行うことと、
    ポジショントラッキングに基づいて、レンダリングされたグラフィックを生成することと、
    前記レンダリングされたグラフィックに関するグラフィック画像処理を行うことと、
    処理された画像と前記処理されたレンダリングされたグラフィックを複合し、前記グラフィックコンテンツを生じさせることと、
    前記グラフィックコンテンツを前記ユーザに提供することと、
    を更に含む、請求項30から38のいずれか一項に記載の方法。
  40. 前記画像処理を行うことは、トリガ制御、ディベイヤリング、自動ホワイトバランス、欠陥画素置換、フラットフィールド補正、ノイズ低減、エッジ強調、歪み補正、及び収差補正のうちの少なくとも1つを含む、請求項39に記載の方法。
  41. 前記高密度深度マップは、前記関連するIRエミッタから光線が出て反射して前記ToFカメラに戻るまでに要する時間に基づいて、前記ToFカメラセンサから得られる、請求項39に記載の方法。
  42. 前記高密度深度マップは、前記投影されたスペックルパターンの反射をキャプチャする前記一対のモノカメラセンサから得られる、請求項39に記載の方法。
  43. 前記組み込みトラッキングを行うことは、ポジショントラッキング及びユーザボディトラッキングを行うことを含む、請求項39に記載の方法。
  44. 前記組み込みトラッキングを行うことは、環境トラッキングを行うことを更に含む、請求項43に記載の方法。
  45. 前記ポジショントラッキングを行うことは、
    パススルーステレオビュー画像及びステレオ画像において不変の2D画像フューチャを回転方向に検出し、スケールすることと、
    ステレオマッチングを使用して、検出された各フューチャの深度を推定し、3Dポイントクラウドを生じさせることと、
    頭部位置の変化を推測するために前記3Dポイントクラウドをリアルタイムでトラッキングすることと、
    を含む、請求項43又は44に記載の方法。
  46. 前記ポジショントラッキングを行うことは、前記パススルーステレオビュー画像及び前記ステレオ画像が十分な情報を提供しないときに、位置変化を一時的に演算するために前記慣性測定値を使用することを更に含む、請求項45に記載の方法。
  47. 前記ユーザボディトラッキングを行うことは、
    前記高密度深度マップ上で身体セグメンテーションを行うことと、
    前記高密度深度マップ及び前記身体セグメンテーションから身体メッシュを抽出することと、
    前記身体メッシュの骨格モデルを抽出することと、
    前記ユーザの身体運動をトラッキングし、前記ユーザの前記骨格モデル及び前記身体運動をジェスチャモデルにマッチングさせることによって、予め定義されたジェスチャを認識することと、
    を含む、請求項43から46のいずれか一項に記載の方法。
  48. 前記環境トラッキングを行うことは、
    パススルーステレオビュー画像、ステレオ画像、及びポジショントラッキングを使用して運動モデルを生成することと、
    キーポイントを検出することと、
    ロバストなフューチャ記述子を使用して、キーポイントに対して局所的なフューチャを抽出することと、
    高密度深度マップを抽出されたフューチャと融合することによって、表面記述子を推定することと、
    を含む、請求項44から47のいずれか一項に記載の方法。
  49. キーポイントは、Harrisコーナ、不変のHuモーメント又はHessian複合現実合成の行列式に基づく局所的な極値点のうちの少なくとも1つを含む、請求項48に記載の方法。
  50. 前記ロバストなフューチャ記述子は、勾配ヒストグラム記述子又はHaar−likeフューチャ記述子である、請求項48に記載の方法。
  51. 前記キーポイントに対して局所的なフューチャを抽出することは、分類アルゴリズムを使用することを含む、請求項48に記載の方法。
  52. 前記分類アルゴリズムはサポートベクトルマシンに基づく、請求項48に記載の方法。
  53. 前記ToFカメラセンサは、前記投影されるスペックルパターンとは異なる波長を使用する、請求項30から52のいずれか一項に記載の方法。
  54. 前記ToFカメラセンサは、前記LEDフラッドライトからの光とは異なる波長を使用する、請求項37から52のいずれか一項に記載の方法。
JP2018543195A 2016-02-18 2017-02-20 インサイドアウト方式のポジション、ユーザボディ、及び環境トラッキングを伴うバーチャルリアリティ及びミックスドリアリティ用ヘッドマウントディスプレイ Active JP6824279B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201662296829P 2016-02-18 2016-02-18
US62/296,829 2016-02-18
PCT/CA2017/000033 WO2017139871A1 (en) 2016-02-18 2017-02-20 Head-mounted display for virtual and mixed reality with inside-out positional, user body and environment tracking

Publications (2)

Publication Number Publication Date
JP2019516261A true JP2019516261A (ja) 2019-06-13
JP6824279B2 JP6824279B2 (ja) 2021-02-03

Family

ID=59624674

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018543195A Active JP6824279B2 (ja) 2016-02-18 2017-02-20 インサイドアウト方式のポジション、ユーザボディ、及び環境トラッキングを伴うバーチャルリアリティ及びミックスドリアリティ用ヘッドマウントディスプレイ

Country Status (9)

Country Link
US (4) US10838206B2 (ja)
EP (1) EP3417337A4 (ja)
JP (1) JP6824279B2 (ja)
KR (4) KR102658303B1 (ja)
CN (2) CN109477966B (ja)
AU (1) AU2017220404B2 (ja)
BR (1) BR112018016726B1 (ja)
MX (1) MX2018008945A (ja)
WO (1) WO2017139871A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019188137A (ja) * 2018-04-18 2019-10-31 ビジョン アールティ リミテッド ボアベースの医療システムにおいて患者を監視するためのカメラ監視システム及びカメラ監視システムを較正する方法
KR20210108283A (ko) * 2020-02-25 2021-09-02 광운대학교 산학협력단 깊이영상 카메라로부터 획득된 3d 영상의 품질 향상 방법
JP2021176521A (ja) * 2020-05-08 2021-11-11 グローバス メディカル インコーポレイティッド 外科手術におけるコンピュータ支援ナビゲーションのためのエクステンデッドリアリティヘッドセットカメラシステム
WO2021246574A1 (ko) * 2020-06-02 2021-12-09 국민대학교산학협력단 손 모양 및 조도 센서에 기초하여 가상현실 콘텐츠를 제어하는 휴대용 단말 및 이를 포함하는 vr 뷰어 시스템

Families Citing this family (86)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2536650A (en) 2015-03-24 2016-09-28 Augmedics Ltd Method and system for combining video-based and optic-based augmented reality in a near eye display
US10151606B1 (en) 2016-02-24 2018-12-11 Ommo Technologies, Inc. Tracking position and movement using a magnetic field
US11054899B2 (en) * 2017-06-28 2021-07-06 Halliburton Energy Services, Inc. Interactive virtual reality manipulation of downhole data
US11145124B2 (en) 2017-08-30 2021-10-12 Ronald H. Winston System and method for rendering virtual reality interactions
DE102017216000A1 (de) * 2017-09-11 2019-03-14 Conti Temic Microelectronic Gmbh Gestensteuerung zur Kommunikation mit einem autonomen Fahrzeug auf Basis einer einfachen 2D Kamera
US10506217B2 (en) * 2017-10-09 2019-12-10 Facebook Technologies, Llc Head-mounted display tracking system
JP2019080223A (ja) * 2017-10-26 2019-05-23 株式会社ソニー・インタラクティブエンタテインメント カメラシステム
EP3740809A4 (en) * 2017-11-01 2021-12-15 Vrgineers, Inc. INTERACTIVE AUGMENTED OR VIRTUAL REALITY DEVICES
US10514545B2 (en) 2017-12-08 2019-12-24 Facebook Technologies, Llc Selective tracking of a head-mounted display
US11156753B2 (en) * 2017-12-18 2021-10-26 Viavi Solutions Inc. Optical filters
US10921881B2 (en) 2018-01-18 2021-02-16 Valve Corporation Position tracking system for head-mounted displays that includes sensor integrated circuits
US10559276B2 (en) 2018-02-03 2020-02-11 Facebook Technologies, Llc Apparatus, system, and method for mitigating motion-to-photon latency in head-mounted displays
US10706813B1 (en) 2018-02-03 2020-07-07 Facebook Technologies, Llc Apparatus, system, and method for mitigating motion-to-photon latency in head-mounted displays
US10497179B2 (en) 2018-02-23 2019-12-03 Hong Kong Applied Science and Technology Research Institute Company Limited Apparatus and method for performing real object detection and control using a virtual reality head mounted display system
US10643341B2 (en) 2018-03-22 2020-05-05 Microsoft Technology Licensing, Llc Replicated dot maps for simplified depth computation using machine learning
US10944957B2 (en) 2018-03-22 2021-03-09 Microsoft Technology Licensing, Llc Active stereo matching for depth applications
US10728518B2 (en) 2018-03-22 2020-07-28 Microsoft Technology Licensing, Llc Movement detection in low light environments
US10565678B2 (en) * 2018-03-23 2020-02-18 Microsoft Technology Licensing, Llc Asynchronous camera frame allocation
US10565720B2 (en) * 2018-03-27 2020-02-18 Microsoft Technology Licensing, Llc External IR illuminator enabling improved head tracking and surface reconstruction for virtual reality
KR102202239B1 (ko) * 2018-04-02 2021-01-13 엘지전자 주식회사 헤드마운트디스플레이 분석 시스템
US11980507B2 (en) 2018-05-02 2024-05-14 Augmedics Ltd. Registration of a fiducial marker for an augmented reality system
US10678325B2 (en) 2018-05-22 2020-06-09 Facebook Technologies, Llc Apparatus, system, and method for accelerating positional tracking of head-mounted displays
CN108805917B (zh) * 2018-05-25 2021-02-23 杭州易现先进科技有限公司 空间定位的方法、介质、装置和计算设备
US10276289B1 (en) 2018-06-01 2019-04-30 Ommo Technologies, Inc. Rotating a permanent magnet in a position detection system
CN112714858B (zh) * 2018-07-13 2024-07-09 拉布拉多***公司 能够在不同环境照明条件下操作的移动设备的视觉导航
US10867408B1 (en) 2018-07-23 2020-12-15 Apple Inc. Estimation of spatial relationships between sensors of a multi-sensor device
US20200097707A1 (en) * 2018-09-20 2020-03-26 XRSpace CO., LTD. Camera Module and Extended Reality System Using the Same
US11187914B2 (en) 2018-09-28 2021-11-30 Apple Inc. Mirror-based scene cameras
WO2020069420A2 (en) 2018-09-28 2020-04-02 Ocelot Laboratories Llc Camera system
US11766296B2 (en) 2018-11-26 2023-09-26 Augmedics Ltd. Tracking system for image-guided surgery
US10902250B2 (en) 2018-12-21 2021-01-26 Microsoft Technology Licensing, Llc Mode-changeable augmented reality interface
TWI715903B (zh) 2018-12-24 2021-01-11 財團法人工業技術研究院 動作追蹤系統及方法
KR20200087399A (ko) 2019-01-11 2020-07-21 엘지전자 주식회사 카메라 장치 및 이를 구비하는 전자 장치
US10585194B1 (en) 2019-01-15 2020-03-10 Shenzhen Guangjian Technology Co., Ltd. Switchable diffuser projection systems and methods
CN109613706B (zh) * 2019-01-28 2021-05-07 京东方科技集团股份有限公司 针对智能头戴设备的调整方法、设备及存储介质
US10885710B2 (en) 2019-03-14 2021-01-05 Microsoft Technology Licensing, Llc Reality-guided roaming in virtual reality
EP3712759B1 (en) 2019-03-18 2023-07-19 Apple Inc. Virtual paper
TWI691738B (zh) * 2019-03-20 2020-04-21 宏碁股份有限公司 近眼顯示裝置
CN113050112B (zh) * 2019-03-21 2024-06-04 深圳市光鉴科技有限公司 用于增强飞行时间分辨率的***和方法
CN110139028B (zh) * 2019-03-25 2020-07-07 华为技术有限公司 一种图像处理的方法及头戴式显示设备
JP7365185B2 (ja) * 2019-03-29 2023-10-19 株式会社ソニー・インタラクティブエンタテインメント 画像データ伝送方法、コンテンツ処理装置、ヘッドマウントディスプレイ、中継装置、および、コンテンツ処理システム
US11727646B2 (en) * 2019-04-10 2023-08-15 Trimble Inc. Augmented reality image occlusion
US10937220B2 (en) 2019-04-22 2021-03-02 Disney Enterprises, Inc. Animation streaming for media interaction
GB201906420D0 (en) 2019-05-07 2019-06-19 Farley Adam Virtual augmented and mixed reality systems with physical feedback
CN110148330A (zh) * 2019-05-09 2019-08-20 中国民航大学 一种基于虚拟现实的飞机航前绕机检查培训***
CN110221690B (zh) * 2019-05-13 2022-01-04 Oppo广东移动通信有限公司 基于ar场景的手势交互方法及装置、存储介质、通信终端
US11980506B2 (en) 2019-07-29 2024-05-14 Augmedics Ltd. Fiducial marker
WO2021040106A1 (ko) * 2019-08-30 2021-03-04 엘지전자 주식회사 Ar 장치 및 그 제어 방법
US11320667B2 (en) * 2019-09-27 2022-05-03 Snap Inc. Automated video capture and composition system
KR20210051759A (ko) 2019-10-31 2021-05-10 삼성중공업 주식회사 오염물질 저감 장치
KR20210051816A (ko) 2019-10-31 2021-05-10 삼성중공업 주식회사 오염물질 저감 장치
KR102125267B1 (ko) * 2019-11-14 2020-06-23 (주)토핀스 이동형 적외선 카메라장치
US11128817B2 (en) 2019-11-26 2021-09-21 Microsoft Technology Licensing, Llc Parallax correction using cameras of different modalities
CN110969905A (zh) * 2019-11-29 2020-04-07 塔普翊海(上海)智能科技有限公司 混合现实的远程教学互动、教具互动***及其互动方法
US11158108B2 (en) 2019-12-04 2021-10-26 Microsoft Technology Licensing, Llc Systems and methods for providing a mixed-reality pass-through experience
CN111028597B (zh) * 2019-12-12 2022-04-19 塔普翊海(上海)智能科技有限公司 混合现实的外语情景、环境、教具教学***及其方法
US11382712B2 (en) 2019-12-22 2022-07-12 Augmedics Ltd. Mirroring in image guided surgery
US11217024B2 (en) * 2019-12-26 2022-01-04 Facebook Technologies, Llc Artificial reality system with varifocal display of artificial reality content
KR20210085256A (ko) 2019-12-30 2021-07-08 삼성전자주식회사 사용자의 위치를 제공하기 위한 전자 장치 및 방법
US11340696B2 (en) * 2020-01-13 2022-05-24 Sony Interactive Entertainment Inc. Event driven sensor (EDS) tracking of light emitting diode (LED) array
US11032530B1 (en) * 2020-05-15 2021-06-08 Microsoft Technology Licensing, Llc Gradual fallback from full parallax correction to planar reprojection
NL2025627B1 (en) 2020-05-20 2021-12-07 Adjuvo Motion B V A virtual or augmented reality training system
US11579449B2 (en) * 2020-05-29 2023-02-14 Microsoft Technology Licensing, Llc Systems and methods for providing mixed-reality experiences under low light conditions
CN115552356A (zh) * 2020-06-05 2022-12-30 Oppo广东移动通信有限公司 头戴式显示装置的跟踪方法和头戴式显示***
US11389252B2 (en) 2020-06-15 2022-07-19 Augmedics Ltd. Rotating marker for image guided surgery
US11568555B2 (en) 2020-06-22 2023-01-31 Microsoft Technology Licensing, Llc Dense depth computations aided by sparse feature matching
US11212503B1 (en) * 2020-07-14 2021-12-28 Microsoft Technology Licensing, Llc Dual camera HMD with remote camera alignment
CN112437213A (zh) * 2020-10-28 2021-03-02 青岛小鸟看看科技有限公司 图像采集方法、手柄设备、头戴设备及头戴***
CN112527102B (zh) * 2020-11-16 2022-11-08 青岛小鸟看看科技有限公司 头戴式一体机***及其6DoF追踪方法和装置
US11896445B2 (en) 2021-07-07 2024-02-13 Augmedics Ltd. Iliac pin and adapter
US11908083B2 (en) 2021-08-31 2024-02-20 Snap Inc. Deforming custom mesh based on body mesh
US11663792B2 (en) * 2021-09-08 2023-05-30 Snap Inc. Body fitted accessory with physics simulation
US11798238B2 (en) 2021-09-14 2023-10-24 Snap Inc. Blending body mesh into external mesh
US11836866B2 (en) 2021-09-20 2023-12-05 Snap Inc. Deforming real-world object using an external mesh
US11790614B2 (en) 2021-10-11 2023-10-17 Snap Inc. Inferring intent from pose and speech input
US11836862B2 (en) * 2021-10-11 2023-12-05 Snap Inc. External mesh with vertex attributes
US11763481B2 (en) 2021-10-20 2023-09-19 Snap Inc. Mirror-based augmented reality experience
US20230140170A1 (en) * 2021-10-28 2023-05-04 Samsung Electronics Co., Ltd. System and method for depth and scene reconstruction for augmented reality or extended reality devices
US11995228B2 (en) * 2022-01-11 2024-05-28 Rockwell Collins, Inc. Head tracking system with extended kalman filter combining absolute and relative navigation
CA3213856A1 (en) * 2022-09-22 2024-03-22 Qwake Technologies, Llc Vision module for helmet mounted visual communication and navigation system
US20240121370A1 (en) * 2022-09-30 2024-04-11 Samsung Electronics Co., Ltd. System and method for parallax correction for video see-through augmented reality
US12001024B2 (en) 2022-10-12 2024-06-04 Snap Inc. Energy-efficient adaptive 3D sensing
WO2024081154A1 (en) * 2022-10-12 2024-04-18 Snap Inc. Energy-efficient adaptive 3d sensing
US11914800B1 (en) 2022-10-28 2024-02-27 Dell Products L.P. Information handling system stylus with expansion bay and replaceable module
US11983337B1 (en) 2022-10-28 2024-05-14 Dell Products L.P. Information handling system mouse with strain sensor for click and continuous analog input
US11983061B1 (en) 2022-10-28 2024-05-14 Dell Products L.P. Information handling system peripheral device sleep power management

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003091741A (ja) * 2001-09-17 2003-03-28 Namco Ltd 画像生成システム、プログラム及び情報記憶媒体
JP2005107970A (ja) * 2003-09-30 2005-04-21 Canon Inc 画像表示装置及び方法
JP2011118724A (ja) * 2009-12-04 2011-06-16 Nippon Hoso Kyokai <Nhk> カメラ姿勢推定装置およびカメラ姿勢推定プログラム
JP2014199527A (ja) * 2013-03-29 2014-10-23 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP2014199532A (ja) * 2013-03-29 2014-10-23 キヤノン株式会社 複合現実画像処理装置、複合現実画像処理方法及びプログラム
US20140364197A1 (en) * 2013-06-07 2014-12-11 Sony Computer Entertainment Inc. Transitioning gameplay on a head-mounted display
WO2016014878A1 (en) * 2014-07-25 2016-01-28 Microsoft Technology Licensing, Llc Gaze-based object placement within a virtual reality environment

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100432744C (zh) * 2005-09-26 2008-11-12 大学光学科技股份有限公司 具有手机功能的焦距可调整的头戴式显示器
WO2011106798A1 (en) 2010-02-28 2011-09-01 Osterhout Group, Inc. Local advertising content on an interactive head-mounted eyepiece
CN102129708A (zh) * 2010-12-10 2011-07-20 北京邮电大学 增强现实环境中快速多层次虚实遮挡处理方法
US9213405B2 (en) * 2010-12-16 2015-12-15 Microsoft Technology Licensing, Llc Comprehension and intent-based content for augmented reality displays
US9690099B2 (en) * 2010-12-17 2017-06-27 Microsoft Technology Licensing, Llc Optimized focal area for augmented reality displays
US20120200667A1 (en) * 2011-02-08 2012-08-09 Gay Michael F Systems and methods to facilitate interactions with virtual content
KR20140089345A (ko) 2011-10-11 2014-07-14 소니 주식회사 헤드 마운트 디스플레이 및 표시 제어 방법
US9311883B2 (en) * 2011-11-11 2016-04-12 Microsoft Technology Licensing, Llc Recalibration of a flexible mixed reality device
US8611015B2 (en) * 2011-11-22 2013-12-17 Google Inc. User interface
US9646522B2 (en) * 2012-06-29 2017-05-09 Intel Corporation Enhanced information delivery using a transparent display
US9514522B2 (en) * 2012-08-24 2016-12-06 Microsoft Technology Licensing, Llc Depth data processing and compression
US10234941B2 (en) * 2012-10-04 2019-03-19 Microsoft Technology Licensing, Llc Wearable sensor for tracking articulated body-parts
US20140152676A1 (en) * 2012-11-30 2014-06-05 Dave Rohn Low latency image display on multi-display device
IL298018B2 (en) * 2013-03-11 2024-04-01 Magic Leap Inc System and method for augmentation and virtual reality
US9898866B2 (en) * 2013-03-13 2018-02-20 The University Of North Carolina At Chapel Hill Low latency stabilization for head-worn displays
JP6160154B2 (ja) * 2013-03-22 2017-07-12 セイコーエプソン株式会社 頭部装着型表示装置を利用した情報表示システム、頭部装着型表示装置を利用した情報表示方法、および、頭部装着型表示装置
US20140307055A1 (en) * 2013-04-15 2014-10-16 Microsoft Corporation Intensity-modulated light pattern for active stereo
US9191643B2 (en) * 2013-04-15 2015-11-17 Microsoft Technology Licensing, Llc Mixing infrared and color component data point clouds
US20140362110A1 (en) * 2013-06-08 2014-12-11 Sony Computer Entertainment Inc. Systems and methods for customizing optical representation of views provided by a head mounted display based on optical prescription of a user
EP3008549B1 (en) * 2013-06-09 2021-03-17 Sony Interactive Entertainment Inc. Head mounted display
US20140375540A1 (en) * 2013-06-24 2014-12-25 Nathan Ackerman System for optimal eye fit of headset display device
US9208566B2 (en) 2013-08-09 2015-12-08 Microsoft Technology Licensing, Llc Speckle sensing for motion tracking
US9495801B2 (en) 2014-05-01 2016-11-15 Microsoft Technology Licensing, Llc Pose tracking an augmented reality device
DE102014006732B4 (de) * 2014-05-08 2016-12-15 Audi Ag Bildüberlagerung von virtuellen Objekten in ein Kamerabild
US9727136B2 (en) * 2014-05-19 2017-08-08 Microsoft Technology Licensing, Llc Gaze detection calibration
CN104077741B (zh) * 2014-05-27 2017-05-10 武汉兆图科技有限公司 一种基于渲染到纹理的三维场景无损放大方法
US9473764B2 (en) * 2014-06-27 2016-10-18 Microsoft Technology Licensing, Llc Stereoscopic image display
US20150379772A1 (en) 2014-06-30 2015-12-31 Samsung Display Co., Ltd. Tracking accelerator for virtual and augmented reality displays
WO2016017997A1 (en) * 2014-07-31 2016-02-04 Samsung Electronics Co., Ltd. Wearable glasses and method of providing content using the same
CN104281266B (zh) * 2014-10-17 2017-10-27 深圳鼎界科技有限公司 头戴式显示设备
GB2532465B (en) * 2014-11-19 2021-08-11 Bae Systems Plc Interactive control station
US10235806B2 (en) * 2014-11-21 2019-03-19 Rockwell Collins, Inc. Depth and chroma information based coalescence of real world and virtual world images
US10127725B2 (en) * 2015-09-02 2018-11-13 Microsoft Technology Licensing, Llc Augmented-reality imaging

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003091741A (ja) * 2001-09-17 2003-03-28 Namco Ltd 画像生成システム、プログラム及び情報記憶媒体
JP2005107970A (ja) * 2003-09-30 2005-04-21 Canon Inc 画像表示装置及び方法
JP2011118724A (ja) * 2009-12-04 2011-06-16 Nippon Hoso Kyokai <Nhk> カメラ姿勢推定装置およびカメラ姿勢推定プログラム
JP2014199527A (ja) * 2013-03-29 2014-10-23 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP2014199532A (ja) * 2013-03-29 2014-10-23 キヤノン株式会社 複合現実画像処理装置、複合現実画像処理方法及びプログラム
US20140364197A1 (en) * 2013-06-07 2014-12-11 Sony Computer Entertainment Inc. Transitioning gameplay on a head-mounted display
WO2016014878A1 (en) * 2014-07-25 2016-01-28 Microsoft Technology Licensing, Llc Gaze-based object placement within a virtual reality environment

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019188137A (ja) * 2018-04-18 2019-10-31 ビジョン アールティ リミテッド ボアベースの医療システムにおいて患者を監視するためのカメラ監視システム及びカメラ監視システムを較正する方法
JP7326009B2 (ja) 2018-04-18 2023-08-15 ビジョン アールティ リミテッド ボアベースの医療システムにおいて患者を監視するためのカメラ監視システム及びカメラ監視システムを較正する方法
KR20210108283A (ko) * 2020-02-25 2021-09-02 광운대학교 산학협력단 깊이영상 카메라로부터 획득된 3d 영상의 품질 향상 방법
KR102327304B1 (ko) * 2020-02-25 2021-11-17 광운대학교 산학협력단 깊이영상 카메라로부터 획득된 3d 영상의 품질 향상 방법
JP2021176521A (ja) * 2020-05-08 2021-11-11 グローバス メディカル インコーポレイティッド 外科手術におけるコンピュータ支援ナビゲーションのためのエクステンデッドリアリティヘッドセットカメラシステム
US11838493B2 (en) 2020-05-08 2023-12-05 Globus Medical Inc. Extended reality headset camera system for computer assisted navigation in surgery
JP7473499B2 (ja) 2020-05-08 2024-04-23 グローバス メディカル インコーポレイティッド 外科手術におけるコンピュータ支援ナビゲーションのためのエクステンデッドリアリティヘッドセットカメラシステム
WO2021246574A1 (ko) * 2020-06-02 2021-12-09 국민대학교산학협력단 손 모양 및 조도 센서에 기초하여 가상현실 콘텐츠를 제어하는 휴대용 단말 및 이를 포함하는 vr 뷰어 시스템

Also Published As

Publication number Publication date
JP6824279B2 (ja) 2021-02-03
BR112018016726A2 (pt) 2018-12-26
KR20240051334A (ko) 2024-04-19
US11199706B2 (en) 2021-12-14
WO2017139871A1 (en) 2017-08-24
CN109477966B (zh) 2022-06-03
KR20180101496A (ko) 2018-09-12
CN114895471B (zh) 2024-04-09
CN114895471A (zh) 2022-08-12
US10838206B2 (en) 2020-11-17
EP3417337A1 (en) 2018-12-26
US20210011289A1 (en) 2021-01-14
BR112018016726B1 (pt) 2023-03-14
CN109477966A (zh) 2019-03-15
AU2017220404B2 (en) 2019-06-06
MX2018008945A (es) 2018-11-09
EP3417337A4 (en) 2019-10-23
KR20220099580A (ko) 2022-07-13
AU2017220404A1 (en) 2018-07-12
US20190258058A1 (en) 2019-08-22
US20230324684A1 (en) 2023-10-12
KR102658303B1 (ko) 2024-04-18
KR20200012043A (ko) 2020-02-04
KR102417177B1 (ko) 2022-07-05
US20220050290A1 (en) 2022-02-17
US11693242B2 (en) 2023-07-04

Similar Documents

Publication Publication Date Title
JP6824279B2 (ja) インサイドアウト方式のポジション、ユーザボディ、及び環境トラッキングを伴うバーチャルリアリティ及びミックスドリアリティ用ヘッドマウントディスプレイ
JP7068562B2 (ja) 拡張現実データを記録するための手法
US9348141B2 (en) Low-latency fusing of virtual and real content
KR102281026B1 (ko) 홀로그램 앵커링 및 동적 포지셔닝 기법
US9740298B2 (en) Adaptive projector for projecting content into a three-dimensional virtual space
US20140176591A1 (en) Low-latency fusing of color image data
US10365711B2 (en) Methods, systems, and computer readable media for unified scene acquisition and pose tracking in a wearable display
US11579449B2 (en) Systems and methods for providing mixed-reality experiences under low light conditions
US11089279B2 (en) 3D image processing method, camera device, and non-transitory computer readable storage medium
US11619814B1 (en) Apparatus, system, and method for improving digital head-mounted displays

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180821

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180830

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190909

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200601

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200901

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20201102

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201210

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210112

R150 Certificate of patent or registration of utility model

Ref document number: 6824279

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250