JP7136558B2 - 拡張現実のためのシステムおよび方法 - Google Patents

拡張現実のためのシステムおよび方法 Download PDF

Info

Publication number
JP7136558B2
JP7136558B2 JP2017546703A JP2017546703A JP7136558B2 JP 7136558 B2 JP7136558 B2 JP 7136558B2 JP 2017546703 A JP2017546703 A JP 2017546703A JP 2017546703 A JP2017546703 A JP 2017546703A JP 7136558 B2 JP7136558 B2 JP 7136558B2
Authority
JP
Japan
Prior art keywords
head
electromagnetic
component
display system
electromagnetic field
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017546703A
Other languages
English (en)
Other versions
JP2018511122A5 (ja
JP2018511122A (ja
Inventor
マイケル ジェイ. ウッズ,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Magic Leap Inc
Original Assignee
Magic Leap Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Magic Leap Inc filed Critical Magic Leap Inc
Publication of JP2018511122A publication Critical patent/JP2018511122A/ja
Publication of JP2018511122A5 publication Critical patent/JP2018511122A5/ja
Priority to JP2021041375A priority Critical patent/JP7305690B2/ja
Application granted granted Critical
Publication of JP7136558B2 publication Critical patent/JP7136558B2/ja
Priority to JP2023105887A priority patent/JP7513808B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B7/00Measuring arrangements characterised by the use of electric or magnetic techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Position Input By Displaying (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Measurement Of Length, Angles, Or The Like Using Electric Or Magnetic Means (AREA)
  • Artificial Fish Reefs (AREA)

Description

(関連出願の引用)
本願は、米国仮出願第62/128,993号(2015年3月5日出願、名称「ELECTROMAGNETIC TRACKING SYSTEM AND METHOD FOR AUGMENTED REALITY」、代理人事件番号ML 30031.00)および米国仮出願第62/292,185号(2016年2月5日出願、名称「SYSTEMS AND METHODS FOR AUGMENTED REALITY」、代理人事件番号ML 30062.00)に対する優先権を主張する。
(背景)
現代のコンピューティングおよびディスプレイ技術は、いわゆる「仮想現実」または「拡張現実」体験のためのシステムの開発を促進しており、デジタル的に再現された画像またはその一部が、現実であるように見える得る様式、またはそのように知覚され得る様式においてユーザに提示される。仮想現実、すなわち、「VR」シナリオは、典型的には、他の実際の実世界の視覚的入力に対して透明性を伴わずに、デジタルまたは仮想画像情報の提示を伴う。拡張現実、すなわち、「AR」シナリオは、典型的には、ユーザの周囲の実際の世界の視覚化の拡張として、デジタルまたは仮想画像情報の提示を伴う。
例えば、図1を参照すると、拡張現実場面4が、描写されており、AR技術のユーザは、背景の人々、木々、建物と、有形プラットフォーム1120とを特徴とする実世界の公園のような設定6を見る。これらのアイテムに加え、AR技術のユーザは、実世界プラットフォーム1120上に立っているロボット像1110と、公園の周囲を飛んでいる漫画のようなアバタキャラクタ2も知覚し得る。当然ながら、仮想要素2および1110は、実世界には存在しないが、ユーザは、これらの仮想オブジェクトを実世界のオブジェクトの一部(例えば、6、1120等)であるように、かつそれらと相互作用しているように感知する。ヒトの視知覚系は、非常に複雑であり、他の仮想または実世界画像要素間における仮想画像要素の快適で、自然のような感覚で、かつ豊かな提示を促進するそのようなAR場面等の生成は、困難であることを理解されたい。
例えば、頭部装着型ARディスプレイ(例えば、ヘルメット搭載型ディスプレイまたはスマートグラス)が、ユーザの頭部に装着され得、したがって、それらは、ユーザの頭部が移動すると、移動し得る。ユーザの頭部の運動が、ディスプレイシステムによって検出される場合、表示されているデータは、頭部姿勢の変化を考慮するように更新されることができる。頭部姿勢は、仮想コンテンツをユーザに対して適切にレンダリングするために利用され得る。したがって、いかなるわずかな変動も、ユーザのARディスプレイに配信される仮想コンテンツの配信またはタイミングを混乱させ、および/または損ない得る。
例として、頭部装着型ディスプレイを装着するユーザが、ディスプレイ上の3次元(3-D)オブジェクトの仮想表現を視認し、3-Dオブジェクトが現れるエリアの周囲を歩き回る場合、その3-Dオブジェクトは、各視点に対して再レンダリングされ、彼らが、実空間を占有するオブジェクトの周囲を歩き回っているような知覚をユーザに与えることができる。頭部装着型ディスプレイが、仮想空間内に複数のオブジェクト(例えば、豊かな仮想世界)を提示するために使用される場合、頭部の姿勢の測定値(すなわち、ユーザの頭部の場所および向き)が、ユーザの動的に変化する頭部場所および向きに一致するように場面を再レンダリングし、仮想空間内への浸漬感の増加を提供するために使用されることができる。同様に、AR技術のユーザが、仮想世界と相互作用するとき、彼らは、オブジェクトを指し示すために、またはオプションを選択するためにオブジェクトまたはその手を使用し得る。この相互作用が生じるために、正確な程度までのオブジェクトまたはユーザの手の位置特定も、重要である。したがって、頭部の姿勢および「手の姿勢」の両方とも、重要であり、位置特定技法が、仮想コンテンツをユーザに対して正確に描写するために使用されなければならない。
ARシステムでは、頭部の姿勢および/または手の姿勢の検出ならびに/もしくは計算は、ARディスプレイシステムが、実世界のオブジェクトと調和する様式において実世界内の空間を占有しているように見えるように、仮想オブジェクトをレンダリングすることを促進することができる。仮想コンテンツが1つ以上の実オブジェクトと関連して不快感を与える/方向感覚を失わせないように、AR場面を現実的に提示することは、ユーザのAR体験の享受を改善する。加えて、ユーザの頭部またはARシステムと関連したハンドヘルドデバイス(「トーテム」とも称され得る)、触知デバイス、または他の実物理的オブジェクト等の実オブジェクトの位置および/または向きの検出も、ディスプレイシステムが、ディスプレイ情報をユーザに提示し、ユーザが、ARシステムのある側面と効率的に相互作用することを可能にすることを促進し得る。
AR用途では、物理的オブジェクトと空間的に関連した仮想オブジェクトの設置(例えば、2または3次元において物理的オブジェクトに空間的に近接して見えるように提示される)は、些細な問題ではないことを理解されたい。例えば、頭部の移動が、周囲環境のビューからの仮想オブジェクトの設置を有意に複雑にし得る。これは、ビューが周囲環境の画像として捕捉され、次いで、エンドユーザに投影もしく表示されるかどうか、またはエンドユーザが周囲環境のビューを直接知覚するかどうかにかかわらず当てはまり得る。例えば、頭部の移動は、ユーザの視野を変化させ得る。これは、ひいては、種々の仮想オブジェクトがエンドユーザの視野において表示される場所に対する更新を要求し得る。同様に、手の移動(ハンドヘルドオブジェクトの場合)が、システムと相互作用するために使用されるとき、同一の課題を提供する。これらの移動は、高速であり、典型的には、高リフレッシュレートおよび短待ち時間において、正確に検出され、位置特定される必要があり得る。
加えて、頭部および/または手の移動は、多種多様な範囲および速度で生じ得る。速度は、異なるタイプの頭部の移動間だけではなく、単一移動の範囲内またはそれにわたっても変動し得る。例えば、頭部の移動の速度は、最初に、始点から増加し得(例えば、線形または別様に)、終点に到達するにつれて、減少し得、頭部の移動の始点と終点との間のある場所で最大速度を得る。高速移動は、均一および/または平滑運動としてエンドユーザに見える画像をレンダリングするための特定の表示または投影技術の能力さえ超え得る。
頭部または手の追跡正確度および待ち時間(すなわち、ユーザがその頭部/手を移動させてから、画像が更新され、ユーザに表示されるまでの経過時間)は、VRおよびARシステムに対して課題となっている。特に、ユーザの視野の実質的部分を仮想要素で充填するディスプレイシステムに対して、追跡の正確度が高く、運動の最初の検出からディスプレイによってユーザの視覚系に配信される光の更新までの全体的システム待ち時間が非常に短いことが重要である。待ち時間が長い場合、システムは、ユーザの前庭と視感覚系との間に不整合をもたらし、乗り物酔いまたはシミュレータ酔いにつながり得るユーザ知覚シナリオを発生させ得る。システム待ち時間が長い場合、仮想オブジェクトの見掛け場所は、高速頭部運動中、不安定に現れ得る。
頭部装着型ディスプレイシステムに加え、他のディスプレイシステムも、正確かつ短い待ち時間の頭部の姿勢検出から恩恵を受け得る。これらとして、ディスプレイが、ユーザの身体に装着されず、例えば、壁または他の表面上に搭載される、頭部追跡型ディスプレイシステムが挙げられ得る。頭部追跡型ディスプレイは、場面上に窓のように作用し得、ユーザがその頭部を「窓」に対して移動させるにつれて、場面は、ユーザの変化する視点に一致するように、再レンダリングされる。他のシステムとして、頭部装着型ディスプレイが光を実世界上に投影する、頭部装着型投影システムが挙げられ得る。
加えて、現実的AR体験を提供するために、ARシステムは、ユーザと相互作用的であるように設計され得る。例えば、複数のユーザが、仮想ボールおよび/または他の仮想オブジェクトを用いて、ボールゲームをプレーし得る。1人のユーザが、仮想ボールを「キャッチ」し、ボールを別のユーザに投げ返し得る。別の実施形態では、第1のユーザは、仮想ボールを打つためのトーテム(例えば、ARシステムに通信可能に結合される物理的「バット」)を提供され得る。他の実施形態では、仮想ユーザインターフェースは、ユーザが多くのオプションのうちの1つを選択することを可能にするために、ARユーザに提示され得る。ユーザは、トーテム、触知デバイス、装着可能構成要素を使用し、または単に、仮想画面をタッチし、システムと相互作用し得る。
ユーザ(例えば、ユーザの頭部および手)の姿勢および向きを検出し、空間内の実オブジェクトの物理的場所を検出することは、ARシステムが、仮想コンテンツを効果的かつ享受可能な様式で表示することを可能にし得る。しかしながら、頭部および手の姿勢のそのような正確な検出は、達成することが困難であり得る。言い換えると、ARシステムは、実オブジェクト(例えば、ユーザの頭部、トーテム、触知デバイス、装着可能構成要素、ユーザの手等)の物理的場所を認識し、実オブジェクトの物理的座標をユーザに表示されている1つ以上の仮想オブジェクトに対応する仮想座標に相関させなければならない。このプロセスは、1つ以上のオブジェクトの位置および向きを高速レートで追跡する非常に正確なセンサおよびセンサ認識システムによって、改良されることができる。現在のアプローチは、満足のゆく速度または精度規格において位置特定を行わない。
したがって、ARおよびVRデバイスの状況において、より優れた位置特定システムの必要がある。
本明細書は、例えば、以下の項目も提供する。
(項目1)
拡張現実を表示する方法であって、前記方法は、
電磁場エミッタを通して、既知の磁場を放出することと、
電磁センサを通して、前記放出される既知の磁場の結果としての前記電磁センサにおける磁束に関連するパラメータを測定することであって、前記電磁センサの世界座標は、既知である、ことと、
前記電磁センサにおいて測定された前記磁束に関連するパラメータに少なくとも部分的に基づいて、前記電磁場エミッタに対する姿勢情報を決定することと、
前記電磁場エミッタに対して前記決定された姿勢情報に少なくとも部分的に基づいて、仮想コンテンツをユーザに表示することと
を含む、方法。
(項目2)
前記電磁場エミッタは、ARディスプレイシステムのモバイル構成要素内に常駐している、項目1に記載の方法。
(項目3)
前記モバイル構成要素は、ハンドヘルド構成要素である、項目2に記載の方法。
(項目4)
前記モバイル構成要素は、トーテムである、項目2に記載の方法。
(項目5)
前記モバイル構成要素は、前記ARディスプレイシステムの頭部搭載型構成要素である、項目2に記載の方法。
(項目6)
ディスプレイシステムを頭部搭載型構成要素内に格納することをさらに含み、前記電磁センサは、前記頭部搭載型構成要素に動作可能に結合されている、項目1に記載の方法。
(項目7)
前記電磁センサの前記世界座標は、頭部の姿勢情報を決定するために行われるSLAM分析に少なくとも部分的に基づいて既知であり、前記電磁センサは、前記ディスプレイシステムを格納する頭部搭載型構成要素に動作可能に結合されている、項目1に記載の方法。
(項目8)
前記頭部搭載型構成要素に動作可能に結合された1つ以上のカメラを通して画像データを捕捉することをさらに含み、前記SLAM分析は、少なくとも前記1つ以上のカメラによって捕捉されたデータに基づいて行われる、項目7に記載の方法。
(項目9)
前記電磁センサは、1つ以上の慣性測定ユニット(IMU)を備えている、項目1に記載の方法。
(項目10)
前記姿勢情報は、少なくとも世界に対する前記電磁場エミッタの位置および向きに対応する、項目1に記載の方法。
(項目11)
前記姿勢情報は、前記電磁場エミッタに対応する世界座標を決定するために分析される、項目1に記載の方法。
(項目12)
前記電磁場エミッタに対応する前記姿勢情報に少なくとも部分的に基づいて、1つ以上の仮想コンテンツとの相互作用を検出することをさらに含む、項目1に記載の方法。
(項目13)
前記検出された相互作用に少なくとも部分的に基づいて、仮想コンテンツを前記ユーザに表示することをさらに含む、項目12に記載の方法。
(項目14)
前記電磁センサは、3つの方向における磁束を測定するための少なくとも3つのコイルを備えている、項目1に記載の方法。
(項目15)
前記少なくとも3つのコイルは、実質的に同じ場所に一緒に格納され、前記電磁センサは、ARディスプレイシステムの頭部搭載型構成要素に結合されている、項目14に記載の方法。
(項目16)
前記少なくとも3つのコイルは、前記ARディスプレイシステムの頭部搭載型構成要素の異なる場所に格納されている、項目14に記載の方法。
(項目17)
制御用かつクイック解放式のモジュールを通して、前記電磁場エミッタによって放出される磁場を切り離すことをさらに含む、項目1に記載の方法。
(項目18)
追加の位置特定リソースを通して、前記電磁場エミッタの世界座標を決定することをさらに含む、項目1に記載の方法。
(項目19)
前記追加の位置特定リソースは、GPS受信機を備えている、項目18に記載の方法。
(項目20)
前記追加の位置特定リソースは、ビーコンを備えている、項目18に記載の方法。
(項目21)
前記電磁センサは、非中実フェライト立方体を備えている、項目1に記載の方法。
(項目22)
前記電磁センサは、フェライトディスクのスタックを備えている、項目1に記載の方法。
(項目23)
前記電磁センサは、各々がポリマーコーティングを有する複数のフェライトロッドを備えている、項目1に記載の方法。
(項目24)
前記電磁センサは、時分割多重化スイッチを備えている、項目1に記載の方法。
(項目25)
前記方法ステップを実装する手段を有するシステムとして実装される項目1-24に記載の方法。
(項目26)
前記方法ステップを実行するための実行可能コードを有するコンピュータ使用可能記憶媒体を備えているコンピュータプログラム製品として実装される項目1-24に記載の方法。
本発明の実施形態は、1人以上のユーザのために仮想現実および/または拡張現実相互作用を促進するためのデバイス、システム、および方法に関する。
一側面では、拡張現実(AR)ディスプレイシステムは、既知の磁場を放出するための電磁場エミッタと、放出された既知の磁場の結果として電磁センサにおいて測定された磁束に関連するパラメータを測定するための電磁センサでもあって、その世界座標が既知である、電磁センサと、少なくとも部分的に、電磁センサにおいて測定された磁束に関連する測定パラメータに基づいて、電磁場エミッタに対する姿勢情報を決定するためのコントローラと、少なくとも部分的に、電磁場エミッタに対して決定された姿勢情報に基づいて、仮想コンテンツをユーザに表示するためのディスプレイシステムとを備えている。
1つ以上の実施形態では、電磁場エミッタは、ARディスプレイシステムのモバイル構成要素内に常駐する。1つ以上の実施形態では、モバイル構成要素は、ハンドヘルド構成要素である。1つ以上の実施形態では、モバイル構成要素は、トーテムである。
1つ以上の実施形態では、モバイル構成要素は、ARディスプレイシステムの頭部搭載型構成要素である。1つ以上の実施形態では、ARディスプレイシステムはさらに、ディスプレイシステムを格納する頭部搭載型構成要素を備え、電磁センサは、頭部搭載型構成要素に動作可能に結合される。1つ以上の実施形態では、電磁センサの世界座標は、少なくとも部分的に、頭部の姿勢情報を決定するために行われるSLAM分析に基づいて既知であり、電磁センサは、ディスプレイシステムを格納する頭部搭載型構成要素に動作可能に結合される。
1つ以上の実施形態では、ARディスプレイはさらに、頭部搭載型構成要素に動作可能に結合された1つ以上のカメラを備え、SLAM分析は、少なくとも、1つ以上のカメラによって捕捉されたデータに基づいて行われる。1つ以上の実施形態では、電磁センサは、1つ以上の慣性測定ユニット(IMU)を備えている。
1つ以上の実施形態では、姿勢情報は、少なくとも、世界に対する電磁場エミッタの位置および向きに対応する。1つ以上の実施形態では、姿勢情報は、電磁場エミッタに対応する世界座標を決定するために分析される。1つ以上の実施形態では、コントローラは、少なくとも部分的に、電磁場エミッタに対応する姿勢情報に基づいて、1つ以上の仮想コンテンツとの相互作用を検出する。
1つ以上の実施形態では、ディスプレイシステムは、少なくとも部分的に、検出された相互作用に基づいて、仮想コンテンツをユーザに表示する。1つ以上の実施形態では、電磁センサは、3つの方向における磁束を測定するための少なくとも3つのコイルを備えている。1つ以上の実施形態では、少なくとも3つのコイルは、実質的に同じ場所に一緒に格納され、電磁センサは、ARディスプレイシステムの頭部搭載型構成要素に結合される。
1つ以上の実施形態では、少なくとも3つのコイルは、ARディスプレイシステムの頭部搭載型構成要素の異なる場所に格納される。
電磁場エミッタによって放出される磁場を切り離すための制御用かつクイック解放式のモジュールをさらに備えている請求項1に記載のARディスプレイシステム。1つ以上の実施形態では、ARディスプレイシステムはさらに、電磁場エミッタの世界座標を決定するための追加の位置特定リソースを備えている。1つ以上の実施形態では、追加の位置特定リソースは、GPS受信機を備えている。1つ以上の実施形態では、追加の位置特定リソースは、ビーコンを備えている。
1つ以上の実施形態では、電磁センサは、非中実フェライト立方体を備えている。1つ以上の実施形態では、電磁センサは、フェライトディスクのスタックを備えている。1つ以上の実施形態では、電磁センサは、各々がポリマーコーティングを有する複数のフェライトロッドを備えている。1つ以上の実施形態では、電磁センサは、時分割多重化スイッチを備えている。
別の側面では、拡張現実を表示する方法は、電磁場エミッタを通して、既知の磁場を放出することと、電磁センサを通して、放出される既知の磁場の結果として電磁センサにおいて測定された磁束に関連するパラメータを測定することであって、電磁センサの世界座標は、既知である、ことと、少なくとも部分的に、電磁センサにおいて測定された磁束に関連する測定されたパラメータに基づいて、電磁場エミッタに対する姿勢情報を決定することと、少なくとも部分的に、電磁場エミッタに対して決定された姿勢情報に基づいて、仮想コンテンツをユーザに表示することとを含む。
1つ以上の実施形態では、電磁場エミッタは、ARディスプレイシステムのモバイル構成要素内に常駐する。1つ以上の実施形態では、モバイル構成要素は、ハンドヘルド構成要素である。1つ以上の実施形態では、モバイル構成要素は、トーテムである。1つ以上の実施形態では、モバイル構成要素は、ARディスプレイシステムの頭部搭載型構成要素である。
1つ以上の実施形態では、方法はさらに、ディスプレイシステムを頭部搭載型構成要素内に格納することを含み、電磁センサは、頭部搭載型構成要素に動作可能に結合される。1つ以上の実施形態では、電磁センサの世界座標は、少なくとも部分的に、頭部の姿勢情報を決定するために行われるSLAM分析に基づいて既知であり、電磁センサは、ディスプレイシステムを格納する頭部搭載型構成要素に動作可能に結合される。
1つ以上の実施形態では、方法はさらに、頭部搭載型構成要素に動作可能に結合された1つ以上のカメラを通して画像データを捕捉することを含み、SLAM分析は、少なくとも、1つ以上のカメラによって捕捉されたデータに基づいて行われる。1つ以上の実施形態では、電磁センサは、1つ以上の慣性測定ユニット(IMU)を備えている。
1つ以上の実施形態では、姿勢情報は、少なくとも、世界に対する電磁場エミッタの位置および向きに対応する。1つ以上の実施形態では、姿勢情報は、電磁場エミッタに対応する世界座標を決定するために分析される。1つ以上の実施形態では、方法はさらに、少なくとも部分的に、電磁場エミッタに対応する姿勢情報に基づいて、1つ以上の仮想コンテンツとの相互作用を検出することを含む。
1つ以上の実施形態では、方法はさらに、少なくとも部分的に、検出された相互作用に基づいて、仮想コンテンツをユーザに表示することを含む。1つ以上の実施形態では、電磁センサは、3つの方向における磁束を測定するための少なくとも3つのコイルを備えている。1つ以上の実施形態では、少なくとも3つのコイルは、実質的に同じ場所に一緒に格納され、電磁センサは、ARディスプレイシステムの頭部搭載型構成要素に結合される。1つ以上の実施形態では、少なくとも3つのコイルは、ARディスプレイシステムの頭部搭載型構成要素の異なる場所に格納される。
1つ以上の実施形態では、方法はさらに、制御用かつクイック解放式のモジュールを通して、電磁場エミッタによって放出される磁場を切り離すことを含む。1つ以上の実施形態では、方法はさらに、追加の位置特定リソースを通して、電磁場エミッタの世界座標を決定することを含む。1つ以上の実施形態では、追加の位置特定リソースは、GPS受信機を備えている。1つ以上の実施形態では、追加の位置特定リソースは、ビーコンを備えている。
さらに別の側面では、拡張現実ディスプレイシステムは、電磁場エミッタを格納するハンドヘルド構成要素であって、電磁場エミッタは、既知の磁場を放出する、ハンドヘルド構成要素と、仮想コンテンツをユーザに表示するディスプレイシステムを有する頭部搭載型構成要素であって、頭部搭載型構成要素は、ハンドヘルド構成要素内に格納される電磁場エミッタによって放出される磁場を検出する1つ以上の電磁センサに結合され、頭部の姿勢は、既知である、頭部搭載型構成要素と、ハンドヘルド構成要素および頭部搭載型構成要素に通信可能に結合されるコントローラであって、コントローラは、磁場データをハンドヘルド構成要素から受信し、センサデータを頭部搭載型構成要素から受信し、少なくとも部分的に、受信された磁場データおよび受信されたセンサデータに基づいて、手の姿勢を決定する、コントローラとを備え、ディスプレイシステムは、少なくとも部分的に、決定された手の姿勢に基づいて、ユーザに表示される仮想コンテンツを修正する。
1つ以上の実施形態では、ハンドヘルド構成要素は、モバイル式である。1つ以上の実施形態では、ハンドヘルド構成要素は、トーテムである。1つ以上の実施形態では、ハンドヘルド構成要素は、ゲーム構成要素である。1つ以上の実施形態では、頭部の姿勢は、少なくとも部分的に、SLAM分析に基づいて、既知である。
1つ以上の実施形態では、ARディスプレイシステムはさらに、頭部搭載型構成要素に動作可能に結合される1つ以上のカメラを備え、SLAM分析は、少なくとも、1つ以上のカメラによって捕捉されたデータに基づいて行われる。1つ以上の実施形態では、電磁センサは、1つ以上の慣性測定ユニット(IMU)を備えている。
1つ以上の実施形態では、頭部の姿勢は、少なくとも、世界に対する電磁センサの位置および向きに対応する。1つ以上の実施形態では、手の姿勢は、ハンドヘルド構成要素に対応する世界座標を決定するために分析される。1つ以上の実施形態では、コントローラは、少なくとも部分的に、決定された手の姿勢に基づいて、1つ以上の仮想コンテンツとの相互作用を検出する。
1つ以上の実施形態では、ディスプレイシステムは、少なくとも部分的に、検出された相互作用に基づいて、仮想コンテンツをユーザに表示する。1つ以上の実施形態では、電磁センサは、3つの方向における磁束を測定するための少なくとも3つのコイルを備えている。1つ以上の実施形態では、少なくとも3つのコイルは、実質的に同じ場所に一緒に格納される。1つ以上の実施形態では、少なくとも3つのコイルは、頭部搭載型構成要素の異なる場所に格納される。
1つ以上の実施形態では、ARディスプレイシステムはさらに、電磁場エミッタによって放出される磁場を切り離すための制御用かつクイック解放式のモジュールを備えている。1つ以上の実施形態では、ARディスプレイシステムはさらに、手の姿勢を決定するための追加の位置特定リソースを備えている。1つ以上の実施形態では、追加の位置特定リソースは、GPS受信機を備えている。1つ以上の実施形態では、追加の位置特定リソースは、ビーコンを備えている。
本発明の追加のおよび他の目的、特徴、および利点が、発明を実施するための形態、図、および請求項で説明される。
本発明の追加のおよび他の目的、特徴、および利点が、発明を実施するための形態、図、および請求項で説明される。
図面は、本発明の種々の実施形態の設計および利用を図示する。図は、正確な縮尺で描かれておらず、類似構造または機能の要素は、図全体を通して同一参照番号によって表されることに留意されたい。本発明の種々の実施形態の前述および他の利点ならびに目的を得る方法をより深く理解するために、上記に簡潔に説明された本発明のより詳細な説明が、付随の図面に図示されるその具体的実施形態を参照することによって与えられるであろう。これらの図面は、本発明の典型的実施形態のみを描写しており、したがって、その範囲の限定と見なされるものではないことを理解した上で、本発明が、付随の図面の使用を通して追加の具体性および詳細とともに記載および説明されるであろう。
図1は、一実施形態による、ARシステムのユーザに表示されるAR場面の平面図を図示する。 図2A-2Dは、装着可能ARデバイスの種々の実施形態を図示する。 図2A-2Dは、装着可能ARデバイスの種々の実施形態を図示する。 図2A-2Dは、装着可能ARデバイスの種々の実施形態を図示する。 図2A-2Dは、装着可能ARデバイスの種々の実施形態を図示する。 図3は、ARシステムの1つ以上のクラウドサーバと相互作用する装着可能ARデバイスのユーザの例示的実施形態を図示する。 図4は、電磁追跡システムの例示的実施形態を図示する。 図5は、一例示的実施形態による、センサの位置および向きを決定する例示的方法を図示する。 図6は、電磁追跡システムを利用して頭部の姿勢を決定する例示的略図を図示する。 図7は、検出された頭部の姿勢に基づいて仮想コンテンツをユーザに配信する例示的方法を図示する。 図8は、電磁送信機および電磁センサを有する一実施形態による、ARシステムの種々の構成要素の概略図を図示する。 図9A-9Fは、制御用かつクイック解放式のモジュールの種々の実施形態を図示する。 図9A-9Fは、制御用かつクイック解放式のモジュールの種々の実施形態を図示する。 図9A-9Fは、制御用かつクイック解放式のモジュールの種々の実施形態を図示する。 図9A-9Fは、制御用かつクイック解放式のモジュールの種々の実施形態を図示する。 図9A-9Fは、制御用かつクイック解放式のモジュールの種々の実施形態を図示する。 図9A-9Fは、制御用かつクイック解放式のモジュールの種々の実施形態を図示する。 図10は、ARデバイスの一簡略化された実施形態を図示する。 図11Aおよび11Bは、頭部搭載型ARシステム上への電磁センサの設置の種々の実施形態を図示する。 図11Aおよび11Bは、頭部搭載型ARシステム上への電磁センサの設置の種々の実施形態を図示する。 図12A-12Eは、電磁センサに結合されるべきフェライト立方体の種々の実施形態を図示する。 図13A-13Cは、電磁センサの回路の種々の実施形態を図示する。 図13A-13Cは、電磁センサの回路の種々の実施形態を図示する。 図13A-13Cは、電磁センサの回路の種々の実施形態を図示する。 図14は、電磁追跡システムを使用して頭部および手の姿勢を検出する例示的方法を図示する。 図15は、電磁追跡システムを使用して頭部および手の姿勢を検出する、別の例示的方法を図示する。
図2A-2Dを参照すると、いくつかの一般的構成要素オプションが、図示される。図2A-2Dの議論に従う、詳細な説明の部分では、種々のシステム、サブシステム、および構成要素が、ヒトVRおよび/またはARのための高品質かつ快適に知覚されるディスプレイシステムを提供する目的に対処するために提示される。
図2Aに示されるように、ARシステムユーザ60は、ユーザの眼の正面に位置付けられるディスプレイシステム62に結合されるフレーム64構造を特徴とする、頭部搭載型構成要素58を装着するように描写される。スピーカ66が、描写される構成においてフレーム64に結合され、ユーザの外耳道に隣接して位置付けられる(一実施形態では、示されない別のスピーカが、ユーザの他方の外耳道に隣接して位置付けられ、立体/成形可能音制御を提供する)。ディスプレイ62は、有線導線または無線接続等によって、ローカル処理およびデータモジュール70に動作可能に結合68され得、ローカル処理およびデータモジュール70は、種々の構成において搭載され得、例えば、フレーム64に固定して取り付けられるか、図2Bの実施形態に示されるようにヘルメットまたは帽子80に固定して取り付けられるか、ヘッドホン内に埋め込まれるか、図2Cの実施形態に示されるようにバックパック式構成においてユーザ60の胴体82に除去可能に取り付けられるか、または図2Dの実施形態に示されるようにベルト結合式構成においてユーザ60の臀部84に除去可能に取り付けられる。
ローカル処理およびデータモジュール70は、電力効率の良いプロセッサまたはコントローラ、ならびにフラッシュメモリ等のデジタルメモリを備え得、両方とも、データの処理、キャッシュ、および記憶を補助するために利用され得、データは、(a)画像捕捉デバイス(カメラ等)、マイクロホン、慣性測定ユニット、加速度計、コンパス、GPSユニット、無線デバイス、および/またはジャイロ等、フレーム64に動作可能に結合され得るセンサから捕捉され、および/または、(b)おそらく、そのような処理または読み出し後のディスプレイ62への受け渡しのために、遠隔処理モジュール72および/または遠隔データリポジトリ74を使用して、取得かつ/もしくは処理され得る。ローカル処理およびデータモジュール70は、有線または無線通信リンク等を介して、遠隔モジュール(72、74)が互いに動作可能に結合され、ローカル処理およびデータモジュール70へのリソースとして利用可能であるように、これらの遠隔処理モジュール72および遠隔データリポジトリ74に動作可能に結合(76、78)され得る。
一実施形態では、遠隔処理モジュール72は、データおよび/または画像情報を分析および処理するように構成される1つ以上の比較的に高性能なプロセッサまたはコントローラを備え得る。一実施形態では、遠隔データリポジトリ74は、比較的に大規模なデジタルデータ記憶設備を備え得、それは、インターネットまたは「クラウド」リソース構成内の他のネットワーキング構成を通して利用可能であり得る。一実施形態では、全てのデータは、記憶され得、全ての計算は、ローカル処理およびデータモジュール内で行われ、任意の遠隔モジュールから完全に自律的な使用を可能にし得る。
ここで図3を参照すると、概略図は、クラウドコンピューティングアセット46とローカル処理アセットとの間の協調を図示し、ローカル処理アセットは、例えば、ユーザの頭部120に結合される頭部搭載型構成要素58と、ユーザのベルト308に結合されるローカル処理およびデータモジュール70との中に常駐し得る。したがって、構成要素70は、図3に示されるように、「ベルトパック」70とも称され得る。一実施形態では、1つ以上のクラウドサーバシステム110等のクラウド46アセットは、有線または無線ネットワーキング等を介して、(無線は、モバイル式のために好ましく、有線は、所望され得るある高帯域幅または高データ量転送のために好ましい)、直接、前述のように、ユーザの頭部120およびベルト308に結合されるプロセッサおよびメモリ構成等のローカルコンピューティングアセットの一方または両方(40、42)に動作可能に結合115される。ユーザにローカルのこれらのコンピューティングアセットは同様に、図8を参照して以下に議論される有線結合68等、有線および/または無線接続構成44を介して、互いに動作可能に結合され得る。一実施形態では、ユーザの頭部120に搭載される低慣性および小型サブシステムを維持するために、ユーザとクラウド46との間の一次転送は、ベルト308に搭載されるサブシステムとクラウドとの間のリンクを介し得、頭部搭載型サブシステム120は、主に、例えば、パーソナルコンピューティング周辺接続用途において現在採用されるような超広帯域(「UWB」)接続等の無線接続を使用して、ベルトベースのサブシステム308にデータテザリングされる。
効率的ローカルおよび遠隔処理協調ならびに図2Aに示されるユーザインターフェースもしくはユーザディスプレイシステム62またはその変形例等のユーザのための適切なディスプレイデバイスを用いることで、ユーザの現在の実際のまたは仮想場所に関する1つの世界の側面は、ユーザに転送もしくは「パス」され、効率的方式で更新され得る。言い換えると、世界のマップが、ユーザのARシステム上に部分的に常駐し、かつクラウドリソース内に部分的に常駐し得る記憶場所において、持続的に更新され得る。マップ(「パス可能世界モデル」とも称される)は、ラスタ画像、3-Dおよび2-Dポイント、パラメータ情報、および実世界についての他の情報を備えている大型データベースであり得る。ますます多くのARユーザが、その実環境についての情報を持続的に捕捉するにつれて(例えば、カメラ、センサ、IMU等を通して)、マップは、ますます正確かつ完全となる。
クラウドコンピューティングリソース上に常駐し、クラウドサーバから配布され得る、世界の1つの「モデル」が存在する前述のような構成を用いることで、そのような世界は、比較的に低帯域幅形態において、1人以上のユーザに「パス可能」となり得る。これは、リアルタイムビデオデータまたは類似の複雑な情報を1つのARシステムから別のものに転送するために好ましくあり得る。像の近くに立っている人(すなわち、図1に示されるように)の拡張体験は、クラウドベースの世界モデルによって情報提供され得、その一部は、その人のローカルディスプレイデバイスにパスされ、ビューを完成させ得る。遠隔ディスプレイデバイス(例えば、机上にあるパーソナルコンピュータ)に向かって着座している人が、その情報の同一セクションをクラウドから効率的にダウンロードし、それをパーソナルコンピュータディスプレイ上にレンダリングさせることができる。さらに別の実施形態では、さらに別のユーザが、公園にリアルタイムで存在し得、その公園を散歩し得、友人(例えば、パーソナルコンピュータに向かっている人)は、共有ARおよび/またはVR体験を通してそのユーザに加わる。公園の場面を友人に対してレンダリングするために、ARシステムは、通りの場所、公園内の木々の場所、像の場所等を検出し得る。この場所は、クラウド内のパス可能世界モデルにアップロードされ得、友人(パーソナルコンピュータに向かっている)は、パス可能世界のその部分をクラウドからダウンロードし、次いで、公園内のARユーザと「並んで散歩」を始めることができる。当然ながら、いくつかの実施形態では、友人は、ARユーザが公園内で仮想友人と並んで散歩することができるように、パス可能世界モデル内のアバタとして公園内のARユーザにレンダリングされ得る。
より具体的には、クラウド(続いて、他のARユーザ)にパスされ得るように世界の詳細を捕捉するために、種々のオブジェクトに関する3-Dポイントが、環境から捕捉され得、それらの画像またはポイントを捕捉するカメラの姿勢(すなわち、世界に対するベクトルおよび/または原点位置情報)が、決定され得る。これらの3-Dポイントは、この姿勢情報と「タグ付けされる」か、または関連付けられ得る。任意の所与の環境内の同一ポイントを捕捉する多数のARシステムが存在し得ることを理解されたい。例えば、(第2のARシステムの)第2のカメラによって捕捉されるポイントは、第2のカメラの頭部の姿勢を決定するために利用され得る。言い換えると、第1のカメラからのタグ付けされた画像との比較に基づいて、第2のカメラを向けること、および/または位置特定することができる。次いで、この情報は、テクスチャを抽出するために、マップを作成するために、および実世界の1つ以上の仮想コピーを生成するために利用され得る。
1つ以上の実施形態では、ARシステムは、3-Dポイントおよびそのポイントを生成した2-D画像の両方を捕捉するために利用されることができる。前述のように、これらのポイントおよび画像は、いくつかの実施形態では、クラウド記憶および処理リソース(例えば、図3のサーバ110)に送信され得る。他の実施形態では、この情報は、タグ付けされた2-D画像が3-Dポイントとともにクラウドに送信されるように、埋め込まれた姿勢情報(すなわち、タグ付けされた画像)とともにローカルでキャッシュされ得る。ユーザが動的場面を観察している場合、ユーザはまた、追加の情報をクラウドサーバに送信し得る。1つ以上の実施形態では、オブジェクト認識装置が、捕捉されたポイント内の1つ以上のオブジェクトを認識するために、(クラウドリソースまたはローカルシステムのいずれか上で)起動し得る。オブジェクト認識装置およびパス可能世界モデルに関するさらなる情報は、「SYSTEM AND METHOD FOR AUTMENTED AND VIRTUAL REALITY」と題された米国特許出願第14/205,126号に見出され得る。Magic Leap,Inc.(Fort Lauderdale,Florida)によって開発されたもの等の拡張および仮想現実システムに関連するさらなる情報は、米国特許出願第14/641,376号、米国特許出願第14/555,585号、米国特許出願第14/212,961号、米国特許出願第14/690,401号、米国特許出願第13/663,466号、および米国特許出願第13/684,489号に開示されている。
「パス可能世界モデル」を生成するために使用され得るポイントを捕捉するために、世界に対するユーザの場所、姿勢、および向きを正確に把握することが有用である。より具体的には、ユーザの位置は、ユーザの頭部の姿勢ならびに手の姿勢(ユーザが、ハンドヘルド構成要素を握っている、ジェスチャを行っている等の場合)を把握することが重要であり得るので、ある程度の粒度まで位置特定されなければならない。1つ以上の実施形態では、GPSおよび他の位置特定情報が、そのような処理のための入力として利用され得る。ユーザの頭部、トーテム、手のジェスチャ、触知デバイス等の非常に正確な位置特定が、特定のARシステムから導出される画像およびポイントを処理することにおいて、および適切な仮想コンテンツをユーザに表示するためにも望ましい。
高精度位置特定を達成するための1つのアプローチは、ユーザのARヘッドセット、ベルトパック、および/または他の補助デバイス(例えば、トーテム、触知デバイス、ゲーム器具等)上に方略的に設置される電磁センサと結合される電磁場の使用を伴い得る。電磁追跡システムは、典型的には、少なくとも、電磁場エミッタと、少なくとも1つの電磁場センサとを備えている。電磁センサは、既知の分布を伴う電磁場を測定し得る。これらの測定に基づいて、エミッタに対する場センサの位置および向きが、決定される。
ここで図4を参照すると、電磁追跡システムの例示的システム(例えば、Johnson & Johnson Corporationの子会社であるBiosense(RTM)、Polhemus(RTM),Inc.(Colchester,Vermont)等の組織によって開発されたもの、Sixense(RTM)Entertainment,Inc.(Los Gatos,California)、および他の追跡装置製造企業によって製造されたもの等)が、図示される。1つ以上の実施形態では、電磁追跡システムは、既知の磁場を放出するように構成される、電磁場エミッタ402を備えている。図4に示されるように、電磁場エミッタ402は、電力を電磁場エミッタ402に提供するための電力供給源410(例えば、電流、バッテリ等)に結合され得る。
1つ以上の実施形態では、電磁場エミッタ402は、磁場を発生させる、いくつかのコイル(例えば、互いに垂直に位置付けられ、場をx、y、およびz方向に生成する、少なくとも3つのコイル)を備えている。これらの磁場は、座標空間を確立するために使用される。これは、システムが、既知の磁場と関連してセンサ404の位置をマップすることを可能にし得、これは、ひいては、センサ404の位置および/または向きを決定することに役立つ。1つ以上の実施形態では、電磁センサ404a、404b等が、1つ以上の実オブジェクトに取り付けられ得る。電磁センサ404は、放出される電磁場を通して電流が誘導され得るより小さいコイルを備え得る。概して、「センサ」構成要素404は、立方体または他の容器等の小型構造内に一緒に結合される3つの異なるように向けられる(すなわち、互いに対して直交して向けられる等)コイルの組等の小型コイルまたはループを備え得、小型コイルまたはループは、電磁エミッタ402によって放出される磁場から流入する磁束を捕捉するように位置付けられ/向けられる。これらのコイルを通して誘導される電流を比較することによって、かつ互いに対するコイルの相対的位置および向きを把握することによって、電磁エミッタ402に対するセンサ404の相対的位置および向きが、計算され得る。
電磁追跡センサ404内のコイルと電磁追跡センサ404に動作可能に結合される慣性測定ユニット(「IMU」)構成要素との挙動に関する1つ以上のパラメータが、電磁場エミッタ402が結合される座標系に対するセンサ404(およびそれが取り付けられるオブジェクト)の位置および/または向きを検出するために、測定され得る。当然ながら、この座標系は、実世界内の電磁場エミッタの場所または姿勢を決定するために、世界の座標系に変換され得る。1つ以上の実施形態では、複数のセンサ404が、電磁エミッタ402と関連して使用され、電磁場エミッタ402と関連付けられた座標空間内のセンサ404のそれぞれの位置および向きを検出し得る。
いくつかの実施形態では、頭部の姿勢が、ARシステムの頭部搭載型構成要素上のセンサと、頭部搭載型ARシステムを通して捕捉されたセンサデータおよび画像データに基づいて行われるSLAM分析とに基づいて、すでに既知であり得ることを理解されたい。しかしながら、既知の頭部の姿勢に対するユーザの手(例えば、トーテムのようなハンドヘルド構成要素等)の位置を把握することが重要であり得る。言い換えると、頭部の姿勢に対する手の姿勢を把握することが重要であり得る。頭部(センサが頭部搭載型構成要素上に設置されると仮定して)と手との間の関係が把握されると、世界に対する手の場所(例えば、世界座標)が、容易に計算されることができる。
1つ以上の実施形態では、電磁追跡システムは、センサ404の3-D位置(すなわち、X、Y、およびZ方向)を提供し得、さらに、2つまたは3つの向きの角度においてセンサ404の場所情報を提供し得る。1つ以上の実施形態では、IMUの測定値は、コイルの測定値と比較され、センサ404の位置および向きを決定し得る。1つ以上の実施形態では、電磁(EM)データおよびIMUデータは両方とも、カメラ、深度センサ、および他のセンサ等の種々の他のデータ源とともに、電磁センサ404の位置および向きを決定するために組み合わせられ得る。
1つ以上の実施形態では、この情報は、コントローラ406に伝送され得る(例えば、無線通信、Bluetooth(登録商標)等)。1つ以上の実施形態では、センサ404に対応する姿勢情報(例えば、位置および向き)は、比較的に高リフレッシュレートでコントローラ406に報告され得る。従来、電磁エミッタ402は、テーブル、手術台、壁、または天井等の比較的に安定した大型オブジェクトに結合され得、1つ以上のセンサ404は、医療デバイス、ハンドヘルドゲーム構成要素、トーテム、頭部搭載型ARシステムのフレーム等のより小型のオブジェクトに結合され得る。
代替として、図6を参照して以下に説明されるように、電磁追跡システムの種々の特徴が採用され、ある構成を生成し得、より安定したグローバル座標系に対する空間内を移動する2つのオブジェクト間の位置および/または向きにおける変化またはデルタが、追跡され得る。言い換えると、構成は、図6に示されており、電磁追跡システムの変動が、利用され、頭部搭載型構成要素とハンドヘルド構成要素との間の位置および向き変化を追跡し得る一方、(例えば、ユーザにローカルの室内環境の)グローバル座標系に対する頭部の姿勢は、ARシステムの頭部搭載型構成要素に結合され得る外向き捕捉カメラを使用して、同時位置特定およびマッピング(「SLAM」)技法等によって別様に決定される。
図4に戻って参照すると、コントローラ406は、電磁場エミッタ402を制御し得、さらに、測定データを種々の電磁センサ404から捕捉し得る。システムの種々の構成要素は、任意の電気機械的または無線/Bluetooth(登録商標)手段を通して互いに結合され得ることを理解されたい。コントローラ406はまた、既知の磁場および磁場に関連する座標空間に関するデータを記憶し得る。この情報は、次いで、既知の電磁場に対応する座標空間に関連してセンサ404の位置および向きを検出するために使用され得、それは、次いで、ユーザの手の世界座標(例えば、電磁エミッタの場所)を決定するために使用されることができる。
電磁追跡システムの1つの利点は、最小限の待ち時間および高分解能を伴って非常に正確な追跡結果を生成することができることである。加えて、電磁追跡システムは、必ずしも、光学追跡装置に依拠せず、それによって、ユーザの視線内にないセンサ/オブジェクトの追跡をより容易にする。
電磁場の強度(「v」)は、コイル送信機(例えば、電磁場エミッタ402)からの距離(「r」)の三次関数として低下することを理解されたい。1つ以上のアルゴリズムは、電磁場エミッタからのセンサの距離に基づいて公式化され得る。コントローラ406は、そのようなアルゴリズムを用いて、電磁場エミッタからのさまざまな距離におけるセンサ/オブジェクトの位置および向きを決定するように構成され得る。電磁エミッタから離れて移動するにつれての電磁場の強度の急減を考慮すると、正確度、効率、および短待ち時間の観点から、改良された結果は、より近い距離において達成され得る。典型的電磁追跡システムでは、電磁場エミッタは、電流(例えば、差し込み式電力供給源)によって給電され、電磁場エミッタから半径20フィート以内に位置するセンサを有する。センサと場エミッタとの間の半径が短いほど、AR用途を含む、多くの用途においてより望ましくあり得る。
ここで図5を参照すると、典型的電磁追跡システムの機能を説明する例示的フロー図が、簡単に説明される。502では、既知の電磁場が、放出される。1つ以上の実施形態では、電磁場エミッタは、磁場を発生させ得る。言い換えると、エミッタの各コイルは、電場を一方向(例えば、x、y、またはz)に発生させ得る。磁場は、恣意的波形を用いて発生され得る。1つ以上の実施形態では、軸の各々は、若干異なる周波数で振動し得る。
504では、電磁場に対応する座標空間が、決定され得る。例えば、図4のコントローラ406は、電磁場のパラメータに基づいて、電磁エミッタの周囲の座標空間を自動的に決定し得る。506では、センサ(既知のオブジェクトに取り付けられ得る)におけるコイルの挙動が、検出/測定され得る。例えば、コイルにおいて誘導される電流が、測定され得る。他の実施形態では、コイルの回転または他の定量化可能挙動が、追跡および測定され得る。508では、この測定は、センサおよび/または既知のオブジェクトの位置および向きを決定/計算するために使用され得る。例えば、コントローラは、センサにおけるコイルの挙動を種々の位置または向きに相関させる、マッピングテーブルを参考にし得る。これらの計算に基づいて、座標空間内のセンサ(またはそこに取り付けられるオブジェクト)の位置および向きが、決定され得る。いくつかの実施形態では、姿勢/場所情報は、センサにおいて決定され得る。他の実施形態では、センサは、センサにおいて検出されたデータをコントローラに通信し、コントローラは、マッピングテーブルを参考にし、既知の磁場に対する姿勢情報(例えば、ハンドヘルド構成要素に対する座標)を決定し得る。
ARシステムの状況では、電磁追跡システムの1つ以上の構成要素は、モバイル構成要素の正確な追跡を促進するために、修正される必要があり得る。前述のように、ユーザの頭部の姿勢および向きの追跡は、多くのAR用途において有用である。ユーザの頭部の姿勢および向きの正確な決定は、ARシステムが、正しい仮想コンテンツをARディスプレイ内の適切な位置においてユーザに表示することを可能にする。例えば、仮想場面は、実際の建物の背後に隠れているモンスタを含み得る。建物と関連したユーザの頭部の姿勢および向きに応じて、仮想モンスタのビューは、現実的AR体験が提供されるように修正される必要があり得る。
他の実施形態では、トーテム、触知デバイス、または仮想コンテンツと相互作用するある他の手段の位置および/または向きは、ARユーザがARシステムと相互作用することを可能にすることにおいて重要であり得る。例えば、多くのゲーム用途では、ARシステムは、仮想コンテンツと関連した実オブジェクトの位置および向きを検出しなければならない。または、仮想インターフェースを表示するとき、トーテム、ユーザの手、触知デバイス、またはARシステムとの相互作用のために構成される任意の他の実オブジェクトの位置が、システムがコマンド等を理解するために、表示される仮想インターフェースと関連して把握されなければならない。光学追跡および他の方法を含む、従来の位置特定方法は、典型的には、長待ち時間および低分解能問題に悩まされ、仮想コンテンツのレンダリングを多くのAR用途において困難にする。
1つ以上の実施形態では、前述の電磁追跡システムは、放出される電磁場に関連して1つ以上のオブジェクトの位置および向きを検出するようにARシステムに適合され得る。典型的電磁システムは、大型かつ嵩張る電磁エミッタ(例えば、図4における402)を有する傾向にあり、それは、それらをAR用途において使用するために準理想的にし得る。しかしながら、より小型の電磁エミッタ(例えば、ミリメートル範囲内)が、ARシステムの状況において既知の電磁場を放出するために使用され得る。
ここで図6を参照すると、電磁追跡システムは、示されるように、ARシステムの中に組み込まれ得、電磁場エミッタ602は、ハンドヘルドコントローラ606の一部として組み込まれる。1つ以上の実施形態では、ハンドヘルドコントローラは、ゲーム用途において使用されるべきトーテムであり得る。他の実施形態では、ハンドヘルドコントローラは、ARシステムと相互作用するために使用され得る(例えば、仮想ユーザインターフェースを介して)触知デバイスであり得る。さらに他の実施形態では、電磁場エミッタは、単に、図2Dに示されるように、ベルトパック70の一部として組み込まれ得る。ハンドヘルドコントローラ606は、電磁場エミッタ602に給電するバッテリ610または他の電力供給源を備え得る。
電磁場エミッタ602はまた、他の構成要素に対する電磁場エミッタ602の位置および/または向きを決定することにおいて補助するように構成されるIMU構成要素650を備えているか、またはそれに結合され得ることを理解されたい。これは、電磁場エミッタ602およびセンサ604(以下にさらに詳細に議論される)が両方ともモバイル式である場合、有用であり得る。いくつかの実施形態では、図6の実施形態に示されるように、ベルトパックではなく、ハンドヘルドコントローラ内に電磁場エミッタ602を設置することは、電磁場エミッタがベルトパックにおいてリソースを競うのではなく、むしろ、ハンドヘルドコントローラ606においてそれ自身のバッテリ源を使用することを確実にする。
1つ以上の実施形態では、電磁センサ604は、1つ以上のIMUまたは追加の磁束捕捉コイル608等の他の感知デバイスとともに、ユーザのヘッドセット58上の1つ以上の場所に設置され得る。例えば、図6に示されるように、センサ604、608は、ヘッドセット58のいずれかの側に設置され得る。これらのセンサ604、608は、非常に小型(故に、ある場合には、低感度であり得る)に製作されるので、測定の効率および精度を改良するために、複数のセンサを含むことが重要であり得る。
1つ以上の実施形態では、1つ以上のセンサ604、608はまた、ベルトパック620またはユーザの身体の任意の他の部分上にも設置され得る。センサ604、608は、無線で、またはBluetooth(登録商標)を通して、電磁場エミッタ602によって放出される既知の磁場と関連してセンサ604、608(およびそれらが取り付けられるARヘッドセット58)の姿勢および向きを決定するコンピューティング装置607(例えば、コントローラ)と通信し得る。1つ以上の実施形態では、図6に示されるように、コンピューティング装置607は、ベルトパック620に常駐し得る。他の実施形態では、コンピューティング装置607は、ヘッドセット58自体またはさらにハンドヘルドコントローラ604に常駐し得る。1つ以上の実施形態では、コンピューティング装置607は、センサ604、608の測定を受信し、電磁場エミッタ602によって放出される既知の電磁場に関連してセンサ604、608の位置および向きを決定し得る。
1つ以上の実施形態では、マッピングデータベース632が、参考にされ、センサ604、608の場所座標を決定し得る。マッピングデータベース632は、いくつかの実施形態では、ベルトパック620内に常駐し得る。図示される実施形態では、マッピングデータベース632は、クラウドリソース630上に常駐する。図6に示されるように、コンピューティング装置607は、無線でクラウドリソース630と通信する。決定された姿勢情報は、ARシステムによって収集されたポイントおよび画像と併せて、次いで、クラウドリソース630に通信され、次いで、パス可能世界モデル634に追加され得る。
前述のように、従来の電磁エミッタは、ARデバイスにおいて使用するために嵩張り過ぎ得る。したがって、電磁場エミッタは、従来のシステムと比較してより小型のコイルを使用して、コンパクトに製作され得る。しかしながら、電磁場の強度が場エミッタからの距離の三次関数として減少することを考慮して、電磁センサ604と電磁場エミッタ602との間の半径が短いほど(例えば、約3~3.5フィート)、図4に詳述されるもの等の従来のシステムと比較して、容認可能場強度を維持しながら、電力消費を低減させ得る。
1つ以上の実施形態では、この特徴は、コントローラ606および電磁場エミッタ602に給電するバッテリ610の寿命を延長させるために利用され得る。代替として、この特徴は、電磁場エミッタ602において磁場を発生させるコイルのサイズを縮小させるために利用され得る。しかしながら、同一の強度の磁場を得るために、電磁場エミッタ602の電力は、増加させられる必要があり得る。これは、ハンドヘルドコントローラ606においてコンパクトに適合し得る電磁場エミッタユニット602を可能にする。
いくつかの他の変更が、ARデバイスのために電磁追跡システムを使用するときに行われ得る。1つ以上の実施形態では、IMUベースの姿勢追跡が、使用され得る。そのような実施形態では、IMUを可能な限り安定して維持することは、姿勢検出プロセスの効率を増加させる。IMUは、最大50~100ミリ秒、安定したままであるように製作され得、それは、10~20Hzの姿勢更新/報告レートを伴う安定した信号をもたらす。いくつかの実施形態は、姿勢更新が10~20Hzのレートで報告されることを可能にし得る外部姿勢推定器モジュールを利用し得ることを理解されたい(IMUは、経時的にドリフトし得るので)。IMUを合理的時間量にわたって安定して保つことによって、姿勢更新レートは、10~20Hzまで著しく低下され得る(従来のシステムにおけるより高い周波数と比較して)。
ARシステムの電力を節約するためのさらに別の方法は、電磁追跡システムを10%デューティサイクルにおいて稼働させることであり得る(例えば、100ミリ秒毎にのみ接地にピングする)。言い換えると、電磁追跡システムは、100ミリ秒中10ミリ秒にわたって動作し、姿勢推定値を生成する。これは、直接、電力節約につながり、ひいては、ARデバイスのサイズ、バッテリ寿命、およびコストに影響を及ぼし得る。
1つ以上の実施形態では、デューティサイクルのこの低減は、1つのみではなく、2つのハンドヘルドコントローラ(図示せず)を提供することによって方略的に利用され得る。例えば、ユーザは、2つのトーテム等を要求するゲームをプレーし得る。または、マルチユーザゲームでは、2人のユーザが、それ自身のトーテム/ハンドヘルドコントローラを有し、ゲームをプレーし得る。1つではなく、2つのコントローラ(例えば、各手のための対称コントローラ)が、使用されるとき、コントローラは、オフセットデューティサイクルで動作し得る。同一概念は、例えば、マルチプレーヤゲームをプレーしている2人の異なるユーザによって利用されるコントローラにも適用され得る。
ここで図7を参照すると、ARデバイスの状況における電磁追跡システムを説明する例示的フロー図が、説明される。702では、ハンドヘルドコントローラ606が、磁場を放出する。704では、電磁センサ604(ヘッドセット58、ベルトパック620等上に設置される)が、磁場を検出する。706では、ヘッドセット/ベルトの位置および向きは、センサ604におけるコイル/IMU608の挙動に基づいて決定される。いくつかの実施形態では、センサ604の検出された挙動は、コンピューティング装置607に通信され、順に、電磁場と関連してセンサ604の位置および向き(例えば、ハンドヘルド構成要素に対する座標)を決定する。当然ながら、これらの座標は、次いで、世界に対する頭部の姿勢が、前述のように、SLAM処理を通して把握され得るので、世界座標に変換され得ることを理解されたい。
708では、姿勢情報が、コンピューティング装置607(例えば、ベルトパック620またはヘッドセット58における)に伝達される。710では、随意に、パス可能世界モデル634が、参考にされ、決定された頭部の姿勢および手の姿勢に基づいて、ユーザに表示されるべき仮想コンテンツを決定し得る。712では、仮想コンテンツが、相関に基づいて、ARヘッドセット58においてユーザに配信され得る。前述のフロー図は、例証目的にすぎず、限定として読み取られるべきではないことを理解されたい。
有利には、図6に概略されるものに類似する電磁追跡システムの使用は、より高いリフレッシュレートおよびより短い待ち時間で姿勢追跡を可能にする(例えば、頭部位置および向き、トーテムおよび他のコントローラの位置ならびに向き)。これは、ARシステムが、姿勢情報を計算するための光学追跡技法と比較して、より高い正確度およびより短い待ち時間を伴って、仮想コンテンツを投影することを可能にする。
図8を参照すると、前述のセンサに類似する多くの感知構成要素を特徴とするシステム構成が、図示される。図2A-2Dおよび図6の参照番号は、図8でも繰り返されることを理解されたい。頭部搭載型装着可能構成要素58は、ここでは、図9A-9Fを参照して以下に説明されるように、制御用かつクイック解放式のモジュール86も特徴とする物理的マルチコア導線を使用して、ベルトパック(図2Dに類似する)等のローカル処理およびデータモジュール70に動作可能に結合68されて示される。ローカル処理およびデータモジュール70は、ハンドヘルド構成要素606(図6に類似する)に動作可能に結合100され得る。1つ以上の実施形態では、ローカル処理モジュール70は、低電力Bluetooth(登録商標)等の無線接続を通して、ハンドヘルド構成要素606に結合され得る。1つ以上の実施形態では、ハンドヘルド構成要素606はまた、低電力Bluetooth(登録商標)等の無線接続等によって、直接、頭部搭載型装着可能構成要素58に動作可能に結合94され得る。
概して、IMUデータが、種々の構成要素の姿勢情報を検出するためにパスされる場合、数百または数千サイクル/秒もしくはより高い範囲内等、高周波数接続が、望ましくあり得る。一方、センサ604および送信機602ペアリング等による電磁位置特定感知のために、数十サイクル/秒が、適正であり得る。さらに、壁8等のユーザの周囲の実世界内の固定オブジェクトを表す、グローバル座標系10も示される。クラウドリソース46も、ローカル処理およびデータモジュール70に、頭部搭載型装着可能構成要素58に、壁8またはグローバル座標系10に対して固定される他のアイテムに結合され得るリソースに動作可能に結合42、40、88、90され得る。壁8に結合されるか、またはグローバル座標系10に対して既知の位置および/もしくは向きを有するリソースは、Wi-Fi送受信機114、電磁エミッタ602および/または受信機604、赤外線LEDビーコン等の所与のタイプの放射を放出または反射させるように構成されるビーコンもしくは反射体112、セルラーネットワーク送受信機110、RADARエミッタまたは検出器108、LIDARエミッタまたは検出器106、GPS送受信機118、既知の検出可能パターン122を有するポスタまたはマーカ、およびカメラ124を含み得る。
頭部搭載型装着可能構成要素58は、赤外線カメラ124のための赤外線エミッタ130等のカメラ124検出器を補助するように構成される光エミッタ130に加え、図示されるような類似構成要素を特徴とする。1つ以上の実施形態では、頭部搭載型装着可能構成要素58はさらに、頭部搭載型装着可能構成要素58のフレームまたは機械的プラットフォームに固定して結合され、電磁受信機センサ604またはディスプレイ要素62等の構成要素間のそのようなプラットフォームのたわみを決定するように構成され得る、1つ以上の歪みゲージ116を備え得、それは、図8に描写される眼鏡状プラットフォーム上の鼻の上方の部分等、プラットフォームの薄化部分等において、プラットフォームの曲がりが生じたかどうかを理解するために有用であり得る。
頭部搭載型装着可能構成要素58はまた、プロセッサ128と、1つ以上のIMU102とを含み得る。構成要素の各々は、好ましくは、プロセッサ128に動作可能に結合される。ハンドヘルド構成要素606およびローカル処理およびデータモジュール70は、類似構成要素を特徴とするように図示される。図8に示されるように、そのように多くの感知および接続手段を用いることで、そのようなシステムは、重く、大型で、比較的に高価となる可能性が高く、かつ大量の電力を消費する可能性が高くなる。しかしながら、例証目的のために、そのようなシステムは、非常に高レベルの接続性、システム構成要素統合、および位置/向き追跡を提供するために利用され得る。例えば、そのような構成を用いることで、種々の主要モバイル構成要素(58、70、606)は、Wi-Fi、GPS、またはセルラー信号三角測量を使用して、グローバル座標系に対する位置の観点から位置特定され得、ビーコン、電磁追跡(前述のように)、RADAR、およびLIDIRシステムは、なおもさらなる場所および/または向き情報ならびにフィードバックを提供し得る。マーカおよびカメラも、相対および絶対位置ならびに向きに関するさらなる情報を提供するために利用され得る。例えば、頭部搭載型装着可能構成要素58に結合されて示されるもの等の種々のカメラ構成要素124は、構成要素58の場所、およびそれが他の構成要素に対して向けられている状態を決定するために、同時位置特定およびマッピングプロトコル、または、「SLAM」において利用され得るデータを捕捉するために利用され得る。
図9A-9Fを参照すると、制御用かつクイック解放式のモジュール86の種々の側面が、描写される。図9Aを参照すると、2つの外側筐体134構成要素が、機械的掛止を用いて増強され得る磁気結合構成を使用して、一緒に結合される。関連付けられたシステムの動作のためのボタン136が、含まれ得る。図9Bは、ボタン136および下層上部印刷回路基板138が示される部分的切り取り図を図示する。図9Cを参照すると、ボタン136および下層上部印刷回路基板138が除去され、メス型接触ピンアレイ140が、見えている。図9Dを参照すると、筐体134の反対部分が除去され、下側印刷回路基板142が、見えている。下側印刷回路基板142が除去され、図9Eに示されるように、オス型接触ピンアレイ144が、見えている。
図9Fの断面図を参照すると、オス型ピンまたはメス型ピンのうちの少なくとも1つが、ばね負荷され、それによって、それらは各ピンの縦軸に沿って押し下げられ得るように構成される。1つ以上の実施形態では、ピンは、「ポゴピン」と称され得、概して、銅または金等の非常に伝導性の材料を備え得る。組み立てられると、図示される構成は、46オス型ピンをメス型ピンと嵌め合わせ得、アセンブリ全体は、それを手動で引き離し、ピンアレイ140、144の周縁の周囲に向けられる北および南磁石を使用して開発され得る磁気インターフェース146荷重を克服することによって、クイック解放式に半分に切り離され得る。
一実施形態では、46個のポゴピンを圧縮することからの約2kgの荷重が、約4kgの閉鎖維持力で対抗される。アレイ140、144内のピンは、約1.3mmずつ分離され得、ピンは、ツイストペアまたは他の組み合わせ等の種々のタイプの伝導性ラインに動作可能に結合され、USB 3.0、HDMI(登録商標) 2.0、I2S信号、GPIO、およびMIPI構成、ならびに一実施形態では、最大約4アンペア/5ボルト用に構成される高電流アナログラインおよび接地をサポートし得る。
図10を参照すると、最小限にされた構成要素/特徴組を有し、種々の構成要素の重量および大きさを最小限にし、例えば、図10に特徴付けられる頭部搭載型構成要素58のもの等の比較的にスリムな頭部搭載型構成要素に到達することを可能にすることが有用である。したがって、図8に示される種々の構成要素の種々の順列および組み合わせが、利用され得る。
図11Aを参照すると、電磁感知コイルアセンブリ(604、例えば、筐体に結合される3つの個々のコイル)が、頭部搭載型構成要素58に結合されて示される。そのような構成は、追加の幾何学形状(すなわち、突出部)を全体的アセンブリに追加し、これは、望ましくない場合がある。図11Bを参照すると、図11Aの構成におけるように、コイルをボックスまたは単一筐体内に格納するのではなく、個々のコイルは、図11Bに示されるように、頭部搭載型構成要素58の種々の構造の中に統合され得る。例えば、x-軸コイル148が、頭部搭載型構成要素58の一部分(例えば、フレームの中心)に設置され得る。同様に、y-軸コイル150が、頭部搭載型構成要素58の別の部分(例えば、フレームの両底部側)に設置され得る。同様に、z-軸コイル152が、頭部搭載型構成要素58のさらに別の部分(例えば、フレームの両上部側)に設置され得る。
図12A-12Eは、電磁センサに結合され、場感度を増加させるフェライトコアを特徴とするための種々の構成を図示する。図12Aを参照すると、フェライトコアは、中実立方体1202であり得る。中実立方体は、場感度を増加させることにおいて最も効果的であり得るが、図12B-12Eに描写される残りの構成と比較して、最も重くなり得る。図12Bを参照すると、複数のフェライトディスク1204が、電磁センサに結合され得る。同様に、図12Cを参照すると、1つの軸空気コア1206を伴う中実立方体が、電磁センサに結合され得る。図12Cに示されるように、開放空間(すなわち、空気コア)が、1つの軸に沿って中実立方体内に形成され得る。これは、依然として、必要な場感度を提供しながら、立方体の重量を減少させ得る。さらに別の実施形態では、図12Dを参照すると、3つの軸空気コア1208を伴う中実立方体が、電磁センサに結合され得る。この構成では、中実立方体は、全3つの軸に沿って中空化され、それによって、立方体の重量を著しく減少させる。図12Eを参照すると、プラスチック筐体1210を伴うフェライトロッドも、電磁センサに結合され得る。図12B-12Eの実施形態は、図12Aの中実コア構成より重量が軽く、前述のように、質量を節約するために利用され得ることを理解されたい。
図13A-13Cを参照すると、時分割多重化(「TDM」)が、同様に質量を節約するために利用され得る。例えば、図13Aを参照すると、従来のローカルデータ処理構成が、3コイル電磁受信機センサのために示されており、アナログ電流が、X、Y、およびZコイル(1302、1304、および1306)の各々から流入し、別個の前置増幅器1308の中に流れ、別個の帯域通過フィルタ1310、別個の前置増幅器1312、アナログ/デジタルコンバータ1314を通して、最終的には、デジタル信号プロセッサ1316の中に流れる。
図13Bの送信機構成および図13Cの受信機構成を参照すると、時分割多重化が、各コイルセンサチェーンがそれ自身の増幅器等を要求しないように、ハードウェアを共有するために利用され得る。これは、図13Bに示されるように、TDMスイッチ1320を通して達成され得、TDMスイッチ1320は、同じ組のハードウェア構成要素(増幅器等)を使用して、複数の送信機および受信機へならびにそれらからの信号の処理を促進する。センサ筐体を除去し、多重化し、頭部上のハードウェアを節約することに加え、信号対雑音比が、2つ以上の組の電磁センサを有することによって増加させられ得、各組は、単一のより大きいコイル組に対して比較的に小さい。さらに、概して、複数の感知コイルを近接近して有するために必要とされる低側周波数限界が、改良され、帯域幅要件改良を促進し得る。多重化が、概して、無線周波数信号の受信を時間的に分散し、概して、より粗い信号をもたらすという点において、多重化とのトレードオフが存在し得ることに留意されたい。したがって、より大きいコイル直径が、多重化システムのために要求され得る。例えば、多重化システムが、9mm辺寸法の立方体コイルセンサボックスを要求し得る場合、非多重化システムは、同様の性能のために、7mm辺寸法の立方体コイルボックスのみを要求し得る。したがって、幾何学形状および質量を最小化することにおいてトレードオフが存在し得ることに留意されたい。
頭部搭載型構成要素58等の特定のシステム構成要素が2つ以上の電磁コイルセンサ組を特徴とする別の実施形態では、システムは、システムの性能を最適化するために、互いに最も近いセンサおよび電磁エミッタ対を選択的に利用するように構成され得る。
図14を参照すると、一実施形態では、ユーザがその装着可能コンピューティングシステム160に電源を投入後、頭部搭載型構成要素アセンブリは、IMUおよびカメラデータ(カメラデータは、例えば、より多くのRAW処理能力が存在し得るベルトパックプロセッサ等のSLAM分析のために使用される)の組み合わせを捕捉し、実世界グローバル座標系162に対する頭部の姿勢(すなわち、位置および向き)を決定および更新し得る。ユーザはまた、ハンドヘルド構成要素をアクティブ化し、例えば、拡張現実ゲーム164をプレーし得、ハンドヘルド構成要素は、ベルトパックおよび頭部搭載型構成要素166の一方または両方に動作可能に結合される電磁送信機を備え得る。頭部搭載型構成要素に結合される1つ以上の電磁場コイル受信機組(例えば、組は、3つの異なるように向けられる個々のコイルである)が、電磁送信機から磁束を捕捉するために使用され得る。この捕捉された磁束は、頭部搭載型構成要素とハンドヘルド構成要素168との間の位置または向きの差(または「デルタ」)を決定するために利用され得る。
1つ以上の実施形態では、グローバル座標系に対する姿勢の決定を補助する頭部搭載型構成要素と、頭部搭載型構成要素に対するハンドヘルドの相対的場所および向きの決定を補助するハンドヘルドの組み合わせは、システムが、概して、各構成要素がグローバル座標系に対して位置する場所、したがって、ユーザの頭部の姿勢を決定することを可能にし、ハンドヘルド姿勢は、好ましくは、拡張現実画像特徴の提示と、ハンドヘルド構成要素170の移動および回転を使用した相互作用とのために、比較的に短待ち時間で追跡され得る。
図15を参照すると、図14のものに幾分類似するが、ユーザの頭部の姿勢およびハンドヘルド姿勢が、好ましくは、拡張現実画像特徴の提示と、ハンドヘルド構成要素180の移動および回転を使用した相互作用とのために、比較的に短待ち時間において追跡され得るように、システムが頭部搭載型構成要素172およびハンドヘルド構成要素176、178の両方の姿勢の決定を補助するために利用可能なより多くの感知デバイスおよび構成を有する実施形態が、図示される。
具体的には、ユーザが、その装着可能コンピューティングシステム160に電源を投入後、頭部搭載型構成要素が、実世界グローバル座標系に対する頭部の姿勢を決定および更新するために、SLAM分析のためのIMUおよびカメラデータの組み合わせを捕捉する。システムはさらに、グローバル座標系の種々の側面または1つ以上の移動可能な構成要素172に繋がれ得るWi-Fi、セルラー、ビーコン、RADAR、LIDAR、GPS、マーカ、および/または他のカメラのような環境内の他の位置特定リソースの存在を検出するように構成され得る。
ユーザはまた、ハンドヘルド構成要素をアクティブ化し、例えば、拡張現実ゲーム174をプレーし得、ハンドヘルド構成要素は、ベルトパックおよび頭部搭載型構成要素176の一方または両方に動作可能に結合される電磁送信機を備え得る。他の位置特定リソースも、同様に利用され得る。頭部搭載型構成要素に結合される1つ以上の電磁場コイル受信機組(例えば、組は、3つの異なるように向けられる個々のコイルである)が、電磁送信機からの磁束を捕捉するために使用され得る。この捕捉された磁束は、頭部搭載型構成要素とハンドヘルド構成要素178との間の位置または向きの差異(または「デルタ」)を決定するために利用され得る。
したがって、ユーザの頭部の姿勢およびハンドヘルド姿勢が、ARコンテンツの提示および/またはハンドヘルド構成要素180の移動または回転を使用したARシステムとの相互作用のために、比較的に短待ち時間において追跡され得る。
本発明の種々の例示的実施形態が本明細書で説明される。非限定的な意味で、これらの実施例を参照する。それらは、本発明のより広く適用可能な側面を例証するように提供される。種々の変更が、説明される本発明に行われ得、本発明の真の精神および範囲から逸脱することなく、均等物が置換され得る。加えて、特定の状況、材料、組成物、プロセス、プロセスの行為またはステップを、本発明の目的、精神、または範囲に適合させるように、多くの修正が行われ得る。さらに、当業者によって理解されるように、本明細書で説明および図示される個々の変形例の各々は、本発明の範囲または精神から逸脱することなく、他のいくつかの実施形態のうちのいずれかの特徴から容易に分離され得るか、またはそれらと組み合わせられ得る、離散構成要素および特徴を有する。全てのそのような修正は、本開示と関連付けられる請求項の範囲内であることを目的としている。
本発明は、本デバイスを使用して行われ得る方法を含む。方法は、そのような好適なデバイスを提供する行為を含み得る。そのような提供は、エンドユーザによって行われ得る。換言すると、「提供する」行為は、方法において必要デバイスを提供するために、取得する、アクセスする、接近する、位置付ける、設定する、起動する、電源投入する、または別様に作用するようにエンドユーザに要求するにすぎない。本明細書に記載される方法は、論理的に可能である記載された事象の任意の順序で、ならびに事象の記載された順序で実行され得る。
本発明の例示的側面が、材料選択および製造に関する詳細とともに、上記で記載されている。本発明の他の詳細に関して、これらは、上記の参照された特許および公開に関連して理解されるとともに、概して、当業者によって把握または理解され得る。同じことが、一般的または理論的に採用されるような追加の行為の観点から、本発明の方法ベースの側面に関して当てはまり得る。
加えて、本発明は、種々の特徴を随意に組み込む、いくつかの実施例を参照して説明されているが、本発明は、本発明の各変形例に関して考慮されるように説明または指示されるものに限定されるものではない。種々の変更が、説明される本発明に行われてもよく、本発明の真の精神および範囲から逸脱することなく、(本明細書に記載されるか、またはいくらか簡潔にするために含まれないかどうかにかかわらず)均等物が置換され得る。加えて、値の範囲が提供される場合、その範囲の上限と下限との間の全ての介在値、およびその規定範囲内の任意の他の規定または介在値が、本発明内に包含されることが理解される。
本明細書で説明される発明の変形例の任意の随意的な特徴が、独立して、または本明細書で説明される特徴のうちのいずれか1つ以上の特徴と組み合わせて、記載および請求され得ることも想定される。単数形の項目の言及は、複数の同一項目が存在する可能性を含む。より具体的には、本明細書で、およびそれに関連付けられる請求項で使用されるように、「1つの(a、an)」、「該(said)」、および「前記(the)」という単数形は、特に別様に記述されない限り、複数の指示対象を含む。換言すると、冠詞の使用は、上記の説明ならびに本開示と関連付けられる請求項で、対象項目の「少なくとも1つ」を可能にする。さらに、そのような請求項は、任意の随意的な要素を除外するように起草され得ることに留意されたい。したがって、この記述は、請求項要素の記載に関連する「だけ」、「のみ」、および同等物等のそのような排他的用語の使用、または「否定的」制限の使用のための先行詞としての機能を果たすことを目的としている。
そのような排他的用語を使用することなく、本開示と関連付けられる請求項での「備えている」という用語は、所与の数の要素がそのような請求項で列挙されるか、または特徴の追加をそのような請求項に記載される要素の性質を変換するものと見なすことができるかどうかにかかわらず、任意の追加の要素の包含を可能にするものとする。本明細書で特に定義される場合を除いて、本明細書で使用される全ての技術および科学用語は、請求項の有効性を維持しながら、可能な限り広義の一般的に理解されている意味を与えられるものである。
本発明の範疇は、提供される実施例および/または本明細書に限定されるものではないが、むしろ本開示と関連付けられる請求項の範囲のみによって限定されるものとする。

Claims (23)

  1. 拡張現実を表示する方法であって、前記方法は、
    電磁場エミッタを通して、既知の磁場を放出することと、
    電磁センサを通して、前記放出された既知の磁場の結果としての前記電磁センサにおける磁束に関連するパラメータを測定することであって、前記電磁センサは、中空フェライト立方体を備え、前記中空フェライト立方体は、電磁場感度を増加させ、かつ、中実フェライト立方体と比較して前記中空フェライト立方体の重量を減少させ、前記電磁センサの世界座標は、既知である、ことと、
    前記電磁センサにおける前記磁束に関連する前記測定されたパラメータに少なくとも部分的に基づいて、前記電磁場エミッタに対する姿勢情報を決定することと、
    前記電磁場エミッタに対する前記決定された姿勢情報に少なくとも部分的に基づいて、仮想コンテンツをユーザに表示することと
    を含み、
    前記姿勢情報を決定することは、世界座標系に対するARディスプレイシステムの頭部搭載型構成要素の少なくとも位置および向きを決定することを含み、前記ARディスプレイシステムの前記頭部搭載型構成要素は、前記世界座標系に対して移動可能であり、
    前記電磁場エミッタは、前記ARディスプレイシステムのハンドヘルド構成要素内に格納され、前記ARディスプレイシステムの前記ハンドヘルド構成要素は、前記ARディスプレイシステムの前記頭部搭載型構成要素および前記世界座標系に対して移動可能であり、
    前記姿勢情報を決定することは、さらに、前記ARディスプレイシステムの前記頭部搭載型構成要素の前記決定された位置および向きに少なくとも部分的に基づいて、前記世界座標系に対する前記ARディスプレイシステムの前記ハンドヘルド構成要素の少なくとも位置および向きを決定することを含む、方法。
  2. 前記電磁場エミッタは、前記ARディスプレイシステムのモバイル構成要素内に常駐している、請求項1に記載の方法。
  3. 前記モバイル構成要素は、ハンドヘルド構成要素である、請求項2に記載の方法。
  4. 前記モバイル構成要素は、トーテムである、請求項2に記載の方法。
  5. 前記モバイル構成要素は、前記ARディスプレイシステムの頭部搭載型構成要素である、請求項2に記載の方法。
  6. 前記ARディスプレイシステムを頭部搭載型構成要素内に格納することをさらに含み、前記電磁センサは、前記頭部搭載型構成要素に動作可能に結合されている、請求項1に記載の方法。
  7. 前記電磁センサの前記世界座標は、頭部の姿勢情報を決定するために行われるSLAM分析に少なくとも部分的に基づいて既知であり、前記電磁センサは、前記ARディスプレイシステムを格納する頭部搭載型構成要素に動作可能に結合されている、請求項1に記載の方法。
  8. 前記頭部搭載型構成要素に動作可能に結合された1つ以上のカメラを通して画像データを捕捉し、前記SLAM分析は、少なくとも前記1つ以上のカメラによって捕捉されたデータに基づいて行われる、請求項7に記載の方法。
  9. 前記電磁センサは、1つ以上の慣性測定ユニット(IMU)を備えている、請求項1に記載の方法。
  10. 前記姿勢情報は、少なくとも世界に対する前記電磁場エミッタの位置および向きに対応する、請求項1に記載の方法。
  11. 前記姿勢情報は、前記電磁場エミッタに対応する世界座標を決定するために分析される、請求項1に記載の方法。
  12. 前記電磁場エミッタに対応する前記姿勢情報に少なくとも部分的に基づいて、1つ以上の仮想コンテンツとの相互作用を検出することをさらに含む、請求項1に記載の方法。
  13. 前記検出された相互作用に少なくとも部分的に基づいて、仮想コンテンツを前記ユーザに表示することをさらに含む、請求項12に記載の方法。
  14. 前記電磁センサは、3つの方向における磁束を測定するための少なくとも3つのコイルを備えている、請求項1に記載の方法。
  15. 前記少なくとも3つのコイルは、実質的に同じ場所に一緒に格納され、前記電磁センサは、前記ARディスプレイシステムの頭部搭載型構成要素に結合されている、請求項14に記載の方法。
  16. 前記少なくとも3つのコイルは、前記ARディスプレイシステムの前記頭部搭載型構成要素の異なる場所に格納されている、請求項14に記載の方法。
  17. 制御用かつクイック解放式のモジュールを通して、前記電磁場エミッタによって放出される磁場を切り離すことをさらに含む、請求項1に記載の方法。
  18. 追加の位置特定リソースを通して、前記電磁場エミッタの前記世界座標を決定することをさらに含む、請求項1に記載の方法。
  19. 前記追加の位置特定リソースは、GPS受信機を備えている、請求項18に記載の方法。
  20. 前記追加の位置特定リソースは、ビーコンを備えている、請求項18に記載の方法。
  21. 前記電磁センサは、時分割多重化スイッチを備えている、請求項1に記載の方法。
  22. 拡張現実を表示するシステムであって、前記システムは、
    既知の磁場を放出するように構成された電磁場エミッタと、
    電磁センサであって、前記電磁センサは、前記放出された既知の磁場の結果としての前記電磁センサにおける磁束に関連するパラメータを測定するように構成されており、前記電磁センサは、中空フェライト立方体を備え、前記中空フェライト立方体は、電磁場感度を増加させるように構成されており、かつ、中実フェライト立方体と比較して前記中空フェライト立方体の重量を減少させるように構成されており、前記電磁センサの世界座標は、既知である、電磁センサと、
    前記電磁センサにおける前記磁束に関連する前記測定されたパラメータに少なくとも部分的に基づいて、前記電磁場エミッタに対する姿勢情報を決定するように構成されたコントローラと、
    前記電磁場エミッタに対する前記決定された姿勢情報に少なくとも部分的に基づいて、仮想コンテンツをユーザに表示するように構成されたディスプレイシステムと
    を備え、
    前記コントローラは、世界座標系に対するARディスプレイシステムの頭部搭載型構成要素の少なくとも位置および向きを決定することによって前記姿勢情報を決定するように構成されており、前記ARディスプレイシステムの前記頭部搭載型構成要素は、前記世界座標系に対して移動可能であり、
    前記電磁場エミッタは、前記ARディスプレイシステムのハンドヘルド構成要素内に格納され、前記ARディスプレイシステムの前記ハンドヘルド構成要素は、前記ARディスプレイシステムの前記頭部搭載型構成要素および前記世界座標系に対して移動可能であり、
    前記コントローラは、さらに、前記ARディスプレイシステムの前記頭部搭載型構成要素の前記決定された位置および向きに少なくとも部分的に基づいて、前記世界座標系に対する前記ARディスプレイシステムの前記ハンドヘルド構成要素の少なくとも位置および向きを決定することによって前記姿勢情報を決定するように構成されている、システム。
  23. 実行可能アルゴリズムが記憶されたコンピュータ読み取り可能記憶媒体であって、前記実行可能アルゴリズムは、プロセッサによって実行されたときに、前記プロセッサに請求項1~21に記載の方法のステップを実行させる、コンピュータ読み取り可能記憶媒体。
JP2017546703A 2015-03-05 2016-03-05 拡張現実のためのシステムおよび方法 Active JP7136558B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021041375A JP7305690B2 (ja) 2015-03-05 2021-03-15 拡張現実のためのシステムおよび方法
JP2023105887A JP7513808B2 (ja) 2015-03-05 2023-06-28 拡張現実のためのシステムおよび方法

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201562128993P 2015-03-05 2015-03-05
US62/128,993 2015-03-05
US201662292185P 2016-02-05 2016-02-05
US62/292,185 2016-02-05
PCT/US2016/021095 WO2016141373A1 (en) 2015-03-05 2016-03-05 Systems and methods for augmented reality

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021041375A Division JP7305690B2 (ja) 2015-03-05 2021-03-15 拡張現実のためのシステムおよび方法

Publications (3)

Publication Number Publication Date
JP2018511122A JP2018511122A (ja) 2018-04-19
JP2018511122A5 JP2018511122A5 (ja) 2020-07-16
JP7136558B2 true JP7136558B2 (ja) 2022-09-13

Family

ID=56848278

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2017546703A Active JP7136558B2 (ja) 2015-03-05 2016-03-05 拡張現実のためのシステムおよび方法
JP2021041375A Active JP7305690B2 (ja) 2015-03-05 2021-03-15 拡張現実のためのシステムおよび方法
JP2023105887A Active JP7513808B2 (ja) 2015-03-05 2023-06-28 拡張現実のためのシステムおよび方法

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2021041375A Active JP7305690B2 (ja) 2015-03-05 2021-03-15 拡張現実のためのシステムおよび方法
JP2023105887A Active JP7513808B2 (ja) 2015-03-05 2023-06-28 拡張現実のためのシステムおよび方法

Country Status (10)

Country Link
US (4) US20160259404A1 (ja)
EP (1) EP3265866B1 (ja)
JP (3) JP7136558B2 (ja)
KR (1) KR102331164B1 (ja)
CN (2) CN112764536A (ja)
AU (1) AU2016225963B2 (ja)
CA (1) CA2979560C (ja)
IL (3) IL296028A (ja)
NZ (1) NZ735465A (ja)
WO (1) WO2016141373A1 (ja)

Families Citing this family (106)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9874749B2 (en) 2013-11-27 2018-01-23 Magic Leap, Inc. Virtual and augmented reality systems and methods
US10838207B2 (en) 2015-03-05 2020-11-17 Magic Leap, Inc. Systems and methods for augmented reality
US10180734B2 (en) 2015-03-05 2019-01-15 Magic Leap, Inc. Systems and methods for augmented reality
KR102331164B1 (ko) 2015-03-05 2021-11-24 매직 립, 인코포레이티드 증강 현실을 위한 시스템들 및 방법들
US10551916B2 (en) * 2015-09-24 2020-02-04 Facebook Technologies, Llc Detecting positions of a device based on magnetic fields generated by magnetic field generators at different positions of the device
WO2017096396A1 (en) 2015-12-04 2017-06-08 Magic Leap, Inc. Relocalization systems and methods
US9904357B2 (en) * 2015-12-11 2018-02-27 Disney Enterprises, Inc. Launching virtual objects using a rail device
AU2017210289B2 (en) 2016-01-19 2021-10-21 Magic Leap, Inc. Augmented reality systems and methods utilizing reflections
US10815145B2 (en) 2016-03-31 2020-10-27 Corning Incorporated High index glass and devices incorporating such
AU2017257549B2 (en) 2016-04-26 2021-09-09 Magic Leap, Inc. Electromagnetic tracking with augmented reality systems
US10254546B2 (en) 2016-06-06 2019-04-09 Microsoft Technology Licensing, Llc Optically augmenting electromagnetic tracking in mixed reality
US20170352184A1 (en) * 2016-06-06 2017-12-07 Adam G. Poulos Optically augmenting electromagnetic tracking in mixed reality
JP6972105B2 (ja) 2016-08-02 2021-11-24 マジック リープ, インコーポレイテッドMagic Leap, Inc. 固定距離の仮想現実システムおよび拡張現実システムならびに方法
US10650621B1 (en) 2016-09-13 2020-05-12 Iocurrents, Inc. Interfacing with a vehicular controller area network
US10599217B1 (en) 2016-09-26 2020-03-24 Facebook Technologies, Llc Kinematic model for hand position
CN109791435B (zh) * 2016-09-26 2022-04-12 奇跃公司 虚拟现实或增强现实显示***中磁传感器和光学传感器的校准
US11185763B2 (en) 2016-10-11 2021-11-30 Valve Corporation Holding and releasing virtual objects
US10649583B1 (en) 2016-10-11 2020-05-12 Valve Corporation Sensor fusion algorithms for a handheld controller that includes a force sensing resistor (FSR)
US10898797B2 (en) 2016-10-11 2021-01-26 Valve Corporation Electronic controller with finger sensing and an adjustable hand retainer
US10391400B1 (en) 2016-10-11 2019-08-27 Valve Corporation Electronic controller with hand retainer and finger motion sensing
US11625898B2 (en) 2016-10-11 2023-04-11 Valve Corporation Holding and releasing virtual objects
US10987573B2 (en) 2016-10-11 2021-04-27 Valve Corporation Virtual reality hand gesture generation
US10888773B2 (en) 2016-10-11 2021-01-12 Valve Corporation Force sensing resistor (FSR) with polyimide substrate, systems, and methods thereof
US10307669B2 (en) 2016-10-11 2019-06-04 Valve Corporation Electronic controller with finger sensing and an adjustable hand retainer
US10691233B2 (en) 2016-10-11 2020-06-23 Valve Corporation Sensor fusion algorithms for a handheld controller that includes a force sensing resistor (FSR)
US10549183B2 (en) 2016-10-11 2020-02-04 Valve Corporation Electronic controller with a hand retainer, outer shell, and finger sensing
US10134192B2 (en) 2016-10-17 2018-11-20 Microsoft Technology Licensing, Llc Generating and displaying a computer generated image on a future pose of a real world object
ES2886908T3 (es) 2016-11-25 2021-12-21 Sensoryx AG Sistema portátil de seguimiento del movimiento
US10248191B2 (en) * 2016-12-12 2019-04-02 Microsoft Technology Licensing, Llc Virtual rigid framework for sensor subsystem
US10139934B2 (en) * 2016-12-22 2018-11-27 Microsoft Technology Licensing, Llc Magnetic tracker dual mode
US10451439B2 (en) 2016-12-22 2019-10-22 Microsoft Technology Licensing, Llc Dynamic transmitter power control for magnetic tracker
US10241587B2 (en) 2016-12-22 2019-03-26 Microsoft Technology Licensing, Llc Magnetic tracker power duty cycling
US10812936B2 (en) 2017-01-23 2020-10-20 Magic Leap, Inc. Localization determination for mixed reality systems
CA3055218A1 (en) 2017-03-17 2018-09-20 Magic Leap, Inc. Mixed reality system with color virtual content warping and method of generating virtual content using same
US10405374B2 (en) * 2017-03-17 2019-09-03 Google Llc Antenna system for head mounted display device
WO2018170409A1 (en) 2017-03-17 2018-09-20 Magic Leap, Inc. Mixed reality system with multi-source virtual content compositing and method of generating virtual content using same
CN110431599B (zh) 2017-03-17 2022-04-12 奇跃公司 具有虚拟内容扭曲的混合现实***及使用该***生成虚拟内容的方法
CN106951262B (zh) * 2017-03-28 2023-07-21 联想(北京)有限公司 一种显示处理方法及装置
WO2018201067A1 (en) * 2017-04-27 2018-11-01 Magic Leap, Inc. Light-emitting user input device
EP3571542A4 (en) * 2017-04-28 2020-11-25 Hewlett-Packard Development Company, L.P. DETERMINING THE POSITION AND ORIENTATION OF A USER'S TORSO FOR A DISPLAY SYSTEM
US10620335B2 (en) 2017-05-02 2020-04-14 Ascension Technology Corporation Rotating frequencies of transmitters
US10760931B2 (en) 2017-05-23 2020-09-01 Microsoft Technology Licensing, Llc Dynamic control of performance parameters in a six degrees-of-freedom sensor calibration subsystem
JP7143336B2 (ja) * 2017-06-16 2022-09-28 バルブ コーポレーション 指動作のセンシングを備えた電子コントローラ
US10838516B2 (en) 2017-06-17 2020-11-17 Tactual Labs Co. Six degrees of freedom tracking of objects using sensors
US10908680B1 (en) 2017-07-12 2021-02-02 Magic Leap, Inc. Pose estimation using electromagnetic tracking
US10830572B2 (en) * 2017-10-12 2020-11-10 Google Llc Hemisphere ambiguity correction in electromagnetic position tracking systems
EP3489972B1 (en) * 2017-11-27 2020-04-15 Premo, S.A. Inductor device with light weight configuration
US10514545B2 (en) * 2017-12-08 2019-12-24 Facebook Technologies, Llc Selective tracking of a head-mounted display
US10558260B2 (en) 2017-12-15 2020-02-11 Microsoft Technology Licensing, Llc Detecting the pose of an out-of-range controller
CN108200189A (zh) * 2018-01-18 2018-06-22 吴静 一种基于虚拟现实的智能房屋租赁***
CA3030409A1 (en) 2018-01-19 2019-07-19 Ascension Technology Corporation Calibrating a magnetic transmitter
US10534454B2 (en) * 2018-02-02 2020-01-14 Sony Interactive Entertainment Inc. Head-mounted display to controller clock synchronization over EM field
US10804027B2 (en) * 2018-02-06 2020-10-13 Google Llc Hollow core electromagnetic coil
US10375632B1 (en) * 2018-02-06 2019-08-06 Google Llc Power management for electromagnetic position tracking systems
AU2019217515A1 (en) * 2018-02-06 2020-06-25 Magic Leap, Inc. Systems and methods for augmented reality
CA3031276A1 (en) 2018-02-08 2019-08-08 Ascension Technology Corporation Compensating for distortion in an electromagnetic tracking system
US10914567B2 (en) * 2018-02-23 2021-02-09 Apple Inc. Magnetic sensor based proximity sensing
CN110494792B (zh) * 2018-03-07 2021-07-09 奇跃公司 ***设备的视觉跟踪
US10528133B2 (en) * 2018-03-13 2020-01-07 Facebook Technologies, Llc Bracelet in a distributed artificial reality system
US10572002B2 (en) * 2018-03-13 2020-02-25 Facebook Technologies, Llc Distributed artificial reality system with contextualized hand tracking
CN108471533B (zh) * 2018-03-21 2020-11-27 万物共算(成都)科技有限责任公司 一种适用于ar的高精度定位方法
CN108427199A (zh) * 2018-03-26 2018-08-21 京东方科技集团股份有限公司 一种增强现实设备、***及方法
US11353951B2 (en) 2018-06-08 2022-06-07 Hewlett-Packard Development Company, L.P. Computing input devices with sensors concealed in articles of clothing
US10549186B2 (en) * 2018-06-26 2020-02-04 Sony Interactive Entertainment Inc. Multipoint SLAM capture
EP3827584A4 (en) 2018-07-23 2021-09-08 Magic Leap, Inc. INTRA-FIELD SUB-CODE SYNCHRONIZATION IN SEQUENTIAL FIELD DISPLAYS
CN112513712B (zh) 2018-07-23 2023-05-09 奇跃公司 具有虚拟内容翘曲的混合现实***和使用该***生成虚拟内容的方法
USD930614S1 (en) 2018-07-24 2021-09-14 Magic Leap, Inc. Totem controller having an illumination region
USD918176S1 (en) 2018-07-24 2021-05-04 Magic Leap, Inc. Totem controller having an illumination region
US20200265644A1 (en) * 2018-09-12 2020-08-20 Limited Liability Company "Transinzhkom" Method and system for generating merged reality images
CA3237053A1 (en) * 2018-09-21 2020-03-26 Penumbra, Inc. Systems and methods for generating complementary data for visual display
US10937191B2 (en) * 2018-10-23 2021-03-02 Dell Products, Lp Predictive simultaneous localization and mapping system using prior user session positional information
US11157090B2 (en) 2018-10-26 2021-10-26 Magic Leap, Inc. Ambient electromagnetic distortion correction for electromagnetic tracking
US11321874B2 (en) * 2018-11-21 2022-05-03 Telefonaktiebolaget Lm Ericsson (Publ) Calibration of mobile electronic devices connected to headsets wearable by users
CN109634427B (zh) * 2018-12-24 2022-06-14 陕西圆周率文教科技有限公司 基于头部追踪的ar眼镜控制***及控制方法
CN109633632B (zh) * 2018-12-26 2021-11-30 青岛小鸟看看科技有限公司 一种头戴显示设备,手柄及其定位追踪方法
CN109613983A (zh) * 2018-12-26 2019-04-12 青岛小鸟看看科技有限公司 头戴显示***中手柄的定位方法、装置和头戴显示***
KR102241829B1 (ko) * 2019-01-10 2021-04-19 제이에스씨(주) Vr과 ar을 기반으로 하는 정신건강 및 심리상담 콘텐츠 제공 시스템
JP2022518779A (ja) * 2019-01-28 2022-03-16 マジック リープ, インコーポレイテッド 6自由度の姿勢測定値における半球の曖昧性を解決するための方法およびシステム
JP2020129263A (ja) * 2019-02-08 2020-08-27 セイコーエプソン株式会社 表示システム、情報処理装置の制御プログラム、及び情報処理装置の制御方法
CN113543863A (zh) * 2019-02-28 2021-10-22 奇跃公司 利用相控阵波束成形对增强现实***中的发射器进行六自由度跟踪的方法和***
DE102020109121A1 (de) * 2019-04-02 2020-10-08 Ascension Technology Corporation Korrektur von Verzerrungen
WO2020209864A1 (en) * 2019-04-12 2020-10-15 Google Llc Electromagnetically tracked three-dimensional air mouse
CN111818115B (zh) * 2019-04-12 2021-10-22 华为技术有限公司 一种处理方法、装置和***
EP3956717A4 (en) 2019-04-15 2023-01-04 Magic Leap, Inc. SENSOR FUSION FOR ELECTROMAGNETIC TRACKING
US11206505B2 (en) 2019-05-06 2021-12-21 Universal City Studios Llc Systems and methods for dynamically loading area-based augmented reality content
CN110164440B (zh) * 2019-06-03 2022-08-09 交互未来(北京)科技有限公司 基于捂嘴动作识别的语音交互唤醒电子设备、方法和介质
US10936874B1 (en) * 2019-08-13 2021-03-02 Dell Products, L.P. Controller gestures in virtual, augmented, and mixed reality (xR) applications
US11298623B1 (en) * 2019-11-08 2022-04-12 Facebook Technologies, Llc Battery retention methods and mechanisms for handheld controllers
CN111200745A (zh) * 2019-12-31 2020-05-26 歌尔股份有限公司 视点信息采集方法、装置、设备和计算机存储介质
US11207599B2 (en) * 2020-02-26 2021-12-28 Disney Enterprises, Inc. Gameplay system with play augmented by merchandise
WO2021236170A1 (en) * 2020-05-18 2021-11-25 Google Llc Low-power semi-passive relative six-degree-of-freedom tracking
CN111966213A (zh) * 2020-06-29 2020-11-20 青岛小鸟看看科技有限公司 图像处理方法、装置、设备及存储介质
KR20230029885A (ko) * 2020-06-30 2023-03-03 스냅 인코포레이티드 말 풍선들 및 번역을 갖는 증강 현실 안경류
US11642589B2 (en) * 2020-07-23 2023-05-09 Microsoft Technology Licensing, Llc Virtual-projectile delivery in an expansive environment
US11756225B2 (en) * 2020-09-16 2023-09-12 Campfire 3D, Inc. Augmented reality collaboration system with physical device
US11176756B1 (en) 2020-09-16 2021-11-16 Meta View, Inc. Augmented reality collaboration system
CN112354171B (zh) * 2020-10-20 2023-08-25 上海恒润文化科技有限公司 一种轨道车及其执行机构的执行控制方法和装置
JP2024512211A (ja) * 2021-02-12 2024-03-19 マジック リープ, インコーポレイテッド Lidar同時位置特定およびマッピング
TWI800856B (zh) * 2021-06-25 2023-05-01 宏碁股份有限公司 擴增實境系統及其操作方法
GB2608186A (en) * 2021-06-25 2022-12-28 Thermoteknix Systems Ltd Augmented reality system
USD1029076S1 (en) 2022-03-10 2024-05-28 Campfire 3D, Inc. Augmented reality pack
USD1024198S1 (en) 2022-03-10 2024-04-23 Campfire 3D, Inc. Augmented reality console
USD1014499S1 (en) 2022-03-10 2024-02-13 Campfire 3D, Inc. Augmented reality headset
CN114489346B (zh) * 2022-03-16 2023-08-18 连云港市规划展示中心 基于vr技术的姿态同步的展馆展示***和展示方法
CN114415840B (zh) * 2022-03-30 2022-06-10 北京华建云鼎科技股份公司 一种虚拟现实交互***
US12008451B1 (en) * 2023-12-21 2024-06-11 Ishita Agrawal AI-assisted remote guidance using augmented reality

Family Cites Families (263)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4462165A (en) * 1983-01-31 1984-07-31 The Boeing Company Three axis orientation sensor for an aircraft or the like
US6701296B1 (en) 1988-10-14 2004-03-02 James F. Kramer Strain-sensing goniometers, systems, and recognition algorithms
US5047952A (en) 1988-10-14 1991-09-10 The Board Of Trustee Of The Leland Stanford Junior University Communication system for deaf, deaf-blind, or non-vocal individuals using instrumented glove
CA2358682A1 (en) * 1992-08-14 1994-03-03 British Telecommunications Public Limited Company Position location system
WO1994004938A1 (en) 1992-08-14 1994-03-03 British Telecommunications Public Limited Company Position location system
US5583974A (en) 1993-05-10 1996-12-10 Apple Computer, Inc. Computer graphics system having high performance multiple layer Z-buffer
JP3772151B2 (ja) * 1994-04-21 2006-05-10 オリンパス株式会社 挿入部位置検出装置
TW275590B (en) * 1994-12-09 1996-05-11 Sega Enterprises Kk Head mounted display and system for use therefor
US5592401A (en) 1995-02-28 1997-01-07 Virtual Technologies, Inc. Accurate, rapid, reliable position sensing using multiple sensing technologies
US5930741A (en) 1995-02-28 1999-07-27 Virtual Technologies, Inc. Accurate, rapid, reliable position sensing using multiple sensing technologies
US5684498A (en) 1995-06-26 1997-11-04 Cae Electronics Ltd. Field sequential color head mounted display with suppressed color break-up
CA2238693C (en) 1995-11-27 2009-02-24 Cae Electronics Ltd. Method and apparatus for displaying a virtual environment on a video display
US6064749A (en) * 1996-08-02 2000-05-16 Hirota; Gentaro Hybrid tracking for augmented reality using both camera motion detection and landmark tracking
JP3558104B2 (ja) * 1996-08-05 2004-08-25 ソニー株式会社 3次元仮想物体表示装置および方法
US5831260A (en) * 1996-09-10 1998-11-03 Ascension Technology Corporation Hybrid motion tracker
US5784115A (en) 1996-12-31 1998-07-21 Xerox Corporation System and method for motion compensated de-interlacing of video frames
CN1145014C (zh) * 1998-12-17 2004-04-07 Nec东金株式会社 朝向角检测器
US6611141B1 (en) * 1998-12-23 2003-08-26 Howmedica Leibinger Inc Hybrid 3-D probe tracked by multiple sensors
US6163155A (en) * 1999-01-28 2000-12-19 Dresser Industries, Inc. Electromagnetic wave resistivity tool having a tilted antenna for determining the horizontal and vertical resistivities and relative dip angle in anisotropic earth formations
US6407736B1 (en) 1999-06-18 2002-06-18 Interval Research Corporation Deferred scanline conversion architecture
GB9917591D0 (en) * 1999-07-28 1999-09-29 Marconi Electronic Syst Ltd Head tracker system
US6288785B1 (en) * 1999-10-28 2001-09-11 Northern Digital, Inc. System for determining spatial position and/or orientation of one or more objects
JP2001208529A (ja) * 2000-01-26 2001-08-03 Mixed Reality Systems Laboratory Inc 計測装置及びその制御方法並びに記憶媒体
AU2001233019A1 (en) * 2000-01-28 2001-08-07 Intersense, Inc. Self-referenced tracking
US7878905B2 (en) 2000-02-22 2011-02-01 Creative Kingdoms, Llc Multi-layered interactive play experience
US7445550B2 (en) 2000-02-22 2008-11-04 Creative Kingdoms, Llc Magical wand and interactive play experience
AU2001250802A1 (en) 2000-03-07 2001-09-17 Sarnoff Corporation Camera pose estimation
US6891533B1 (en) 2000-04-11 2005-05-10 Hewlett-Packard Development Company, L.P. Compositing separately-generated three-dimensional images
US6738044B2 (en) 2000-08-07 2004-05-18 The Regents Of The University Of California Wireless, relative-motion computer input device
US6590536B1 (en) * 2000-08-18 2003-07-08 Charles A. Walton Body motion detecting system with correction for tilt of accelerometers and remote measurement of body position
US6753828B2 (en) * 2000-09-25 2004-06-22 Siemens Corporated Research, Inc. System and method for calibrating a stereo optical see-through head-mounted display system for augmented reality
US20020180727A1 (en) 2000-11-22 2002-12-05 Guckenberger Ronald James Shadow buffer control module method and software construct for adjusting per pixel raster images attributes to screen space and projector features for digital warp, intensity transforms, color matching, soft-edge blending, and filtering for multiple projectors and laser projectors
US6691074B1 (en) 2001-02-08 2004-02-10 Netmore Ltd. System for three dimensional positioning and tracking
US6861982B2 (en) * 2001-08-16 2005-03-01 Itt Manufacturing Enterprises, Inc. System for determining position of an emitter
US7113618B2 (en) 2001-09-18 2006-09-26 Intel Corporation Portable virtual reality
JP2003337963A (ja) 2002-05-17 2003-11-28 Seiko Epson Corp 画像処理装置および画像処理方法、ならびに、画像処理プログラムおよびその記録媒体
US7190331B2 (en) * 2002-06-06 2007-03-13 Siemens Corporate Research, Inc. System and method for measuring the registration accuracy of an augmented reality system
US6956503B2 (en) * 2002-09-13 2005-10-18 Canon Kabushiki Kaisha Image display apparatus, image display method, measurement apparatus, measurement method, information processing method, information processing apparatus, and identification method
US9153074B2 (en) 2011-07-18 2015-10-06 Dylan T X Zhou Wearable augmented reality eyeglass communication device including mobile phone and mobile computing via virtual touch screen gesture control and neuron command
JP3984907B2 (ja) 2002-11-29 2007-10-03 キヤノン株式会社 画像観察システム
US20070155589A1 (en) 2002-12-04 2007-07-05 Philip Feldman Method and Apparatus for Operatively Controlling a Virtual Reality Scenario with an Isometric Exercise System
JP2004213350A (ja) 2002-12-27 2004-07-29 Seiko Epson Corp 力覚提示装置及び画像補正方法
US20050107870A1 (en) * 2003-04-08 2005-05-19 Xingwu Wang Medical device with multiple coating layers
US7643025B2 (en) 2003-09-30 2010-01-05 Eric Belk Lange Method and apparatus for applying stereoscopic imagery to three-dimensionally defined substrates
US7443154B1 (en) * 2003-10-04 2008-10-28 Seektech, Inc. Multi-sensor mapping omnidirectional sonde and line locator
CA2450837A1 (en) * 2003-11-25 2005-05-25 University Of New Brunswick Induction magnetometer
US9229540B2 (en) 2004-01-30 2016-01-05 Electronic Scripting Products, Inc. Deriving input from six degrees of freedom interfaces
US20160098095A1 (en) 2004-01-30 2016-04-07 Electronic Scripting Products, Inc. Deriving Input from Six Degrees of Freedom Interfaces
US7653883B2 (en) 2004-07-30 2010-01-26 Apple Inc. Proximity detector in handheld device
JP4508820B2 (ja) 2004-10-19 2010-07-21 株式会社ワコム 3次元情報検出システム及び3次元情報入力装置
WO2006056622A1 (es) 2004-11-19 2006-06-01 Daem Interactive, Sl Dispositivo personal con funciones de adquirir imágenes, para aplicación de recursos de realidad aumentada y método
IL165314A (en) * 2004-11-21 2009-08-03 Elbit Ltd Electromagnetic tracker
WO2006086508A2 (en) 2005-02-08 2006-08-17 Oblong Industries, Inc. System and method for genture based control system
WO2006116536A1 (en) 2005-04-26 2006-11-02 Imax Corporation Electronic projection systems and methods
US8308563B2 (en) 2005-08-30 2012-11-13 Nintendo Co., Ltd. Game system and storage medium having game program stored thereon
US8157651B2 (en) 2005-09-12 2012-04-17 Nintendo Co., Ltd. Information processing program
JP4437228B2 (ja) 2005-11-07 2010-03-24 大学共同利用機関法人情報・システム研究機構 焦点ぼけ構造を用いたイメージング装置及びイメージング方法
KR100722229B1 (ko) 2005-12-02 2007-05-29 한국전자통신연구원 사용자 중심형 인터페이스를 위한 가상현실 상호작용 인체모델 즉석 생성/제어 장치 및 방법
US9823747B2 (en) 2006-02-08 2017-11-21 Oblong Industries, Inc. Spatial, multi-modal control device for use with spatial operating system
US8370383B2 (en) 2006-02-08 2013-02-05 Oblong Industries, Inc. Multi-process interactive systems and methods
US9910497B2 (en) 2006-02-08 2018-03-06 Oblong Industries, Inc. Gestural control of autonomous and semi-autonomous systems
US8531396B2 (en) 2006-02-08 2013-09-10 Oblong Industries, Inc. Control system for navigating a principal dimension of a data space
US8537111B2 (en) 2006-02-08 2013-09-17 Oblong Industries, Inc. Control system for navigating a principal dimension of a data space
JP4151982B2 (ja) 2006-03-10 2008-09-17 任天堂株式会社 動き判別装置および動き判別プログラム
JP4684147B2 (ja) 2006-03-28 2011-05-18 任天堂株式会社 傾き算出装置、傾き算出プログラム、ゲーム装置およびゲームプログラム
JP4196302B2 (ja) 2006-06-19 2008-12-17 ソニー株式会社 情報処理装置および方法、並びにプログラム
JP4804256B2 (ja) 2006-07-27 2011-11-02 キヤノン株式会社 情報処理方法
US8194088B1 (en) 2006-08-03 2012-06-05 Apple Inc. Selective composite rendering
US7921120B2 (en) 2006-11-30 2011-04-05 D&S Consultants Method and system for image recognition using a similarity inverse matrix
CN100487568C (zh) * 2007-05-29 2009-05-13 南京航空航天大学 具有视线跟踪功能的增强现实自然交互式头盔
CN101093586A (zh) * 2007-07-12 2007-12-26 上海交通大学 面向复杂场景实时交互操作的并行碰撞检测方法
US8165352B1 (en) 2007-08-06 2012-04-24 University Of South Florida Reconstruction of biometric image templates using match scores
IL195389A (en) * 2008-11-19 2013-12-31 Elbit Systems Ltd Magnetic Field Mapping System and Method
US10095815B2 (en) * 2008-11-19 2018-10-09 Elbit Systems Ltd. System and a method for mapping a magnetic field
US20090115406A1 (en) 2007-11-01 2009-05-07 General Electric Company System and method for minimizing mutual inductance coupling between coils in an electromagnetic tracking system
US9013505B1 (en) 2007-11-27 2015-04-21 Sprint Communications Company L.P. Mobile system representing virtual objects on live camera image
KR20090055803A (ko) * 2007-11-29 2009-06-03 광주과학기술원 다시점 깊이맵 생성 방법 및 장치, 다시점 영상에서의변이값 생성 방법
US7795596B2 (en) 2008-01-03 2010-09-14 Alcatel-Lucent Usa Inc. Cloaking device detection system
WO2009091563A1 (en) 2008-01-18 2009-07-23 Thomson Licensing Depth-image-based rendering
US20090184825A1 (en) 2008-01-23 2009-07-23 General Electric Company RFID Transponder Used for Instrument Identification in an Electromagnetic Tracking System
WO2009093956A1 (en) 2008-01-23 2009-07-30 Swiftfoot Graphics Ab Method, apparatus, and computer program product for improved graphics performance
US8926511B2 (en) * 2008-02-29 2015-01-06 Biosense Webster, Inc. Location system with virtual touch screen
US9952673B2 (en) 2009-04-02 2018-04-24 Oblong Industries, Inc. Operating environment comprising multiple client devices, multiple displays, multiple users, and gestural control
US9740293B2 (en) 2009-04-02 2017-08-22 Oblong Industries, Inc. Operating environment with gestural control and multiple client devices, displays, and users
US9684380B2 (en) 2009-04-02 2017-06-20 Oblong Industries, Inc. Operating environment with gestural control and multiple client devices, displays, and users
US9740922B2 (en) 2008-04-24 2017-08-22 Oblong Industries, Inc. Adaptive tracking system for spatial input devices
US9495013B2 (en) 2008-04-24 2016-11-15 Oblong Industries, Inc. Multi-modal gestural interface
US8723795B2 (en) 2008-04-24 2014-05-13 Oblong Industries, Inc. Detecting, representing, and interpreting three-space input: gestural continuum subsuming freespace, proximal, and surface-contact modes
US8446426B2 (en) 2008-04-28 2013-05-21 Apple Inc. Technique for visually compositing a group of graphical objects
KR20090120159A (ko) 2008-05-19 2009-11-24 삼성전자주식회사 영상합성장치 및 영상합성방법
US8929877B2 (en) 2008-09-12 2015-01-06 Digimarc Corporation Methods and systems for content processing
JP5415054B2 (ja) 2008-10-28 2014-02-12 セイコーエプソン株式会社 駆動方法および電気光学装置
EP2354896B1 (en) 2008-11-14 2016-12-21 Sony Interactive Entertainment Inc. Operating device and information processing apparatus
US8188745B2 (en) 2008-12-05 2012-05-29 Metrotech Corporation Inc. Precise location and orientation of a concealed dipole transmitter
US9465129B1 (en) 2009-03-06 2016-10-11 See Scan, Inc. Image-based mapping locating system
US8860723B2 (en) 2009-03-09 2014-10-14 Donya Labs Ab Bounded simplification of geometrical computer data
JP5177078B2 (ja) 2009-05-26 2013-04-03 富士通モバイルコミュニケーションズ株式会社 情報処理装置
US9933852B2 (en) 2009-10-14 2018-04-03 Oblong Industries, Inc. Multi-process interactive systems and methods
US8775424B2 (en) 2010-01-26 2014-07-08 Xerox Corporation System for creative image navigation and exploration
US9134534B2 (en) * 2010-02-28 2015-09-15 Microsoft Technology Licensing, Llc See-through near-eye display glasses including a modular image source
US8581905B2 (en) 2010-04-08 2013-11-12 Disney Enterprises, Inc. Interactive three dimensional displays on handheld devices
TWI399688B (zh) 2010-06-08 2013-06-21 Waltop Int Corp 整合電磁式及電容感應輸入裝置
JP2012043308A (ja) 2010-08-20 2012-03-01 Canon Inc 位置姿勢決定方法、位置姿勢決定装置、物体モデル生成方法、物体モデル生成装置、およびプログラム
WO2012046392A1 (ja) 2010-10-08 2012-04-12 パナソニック株式会社 姿勢推定装置及び姿勢推定方法
US20120086630A1 (en) 2010-10-12 2012-04-12 Sony Computer Entertainment Inc. Using a portable gaming device to record or modify a game or application in real-time running on a home gaming system
US9122053B2 (en) 2010-10-15 2015-09-01 Microsoft Technology Licensing, Llc Realistic occlusion for a head mounted augmented reality display
FR2966251B1 (fr) 2010-10-19 2014-04-25 Astrium Sas Systeme d'orientation et de positionnement d'un recepteur electromagnetique
US8660369B2 (en) 2010-10-25 2014-02-25 Disney Enterprises, Inc. Systems and methods using mobile devices for augmented reality
US8745061B2 (en) 2010-11-09 2014-06-03 Tibco Software Inc. Suffix array candidate selection and index data structure
EP2668617A1 (en) 2011-01-27 2013-12-04 Metaio GmbH Method for determining correspondences between a first and a second image, and method for determining the pose of a camera
US8587583B2 (en) 2011-01-31 2013-11-19 Microsoft Corporation Three-dimensional environment reconstruction
JP5776201B2 (ja) * 2011-02-10 2015-09-09 ソニー株式会社 情報処理装置、情報共有方法、プログラム及び端末装置
CN102692607A (zh) * 2011-03-25 2012-09-26 深圳光启高等理工研究院 一种磁场识别装置
JP5724544B2 (ja) 2011-03-31 2015-05-27 ソニー株式会社 画像処理装置、画像処理方法及びプログラム
US9206007B2 (en) 2011-05-31 2015-12-08 Twist-Ease Inc. Bag dispenser
US20120306850A1 (en) 2011-06-02 2012-12-06 Microsoft Corporation Distributed asynchronous localization and mapping for augmented reality
US20120327116A1 (en) 2011-06-23 2012-12-27 Microsoft Corporation Total field of view classification for head-mounted display
US8933913B2 (en) 2011-06-28 2015-01-13 Microsoft Corporation Electromagnetic 3D stylus
US20150100380A1 (en) 2011-07-20 2015-04-09 Raymond P. Jones, JR. Systems and methods for providing financial controls for aggregated weather-based work
US20150040074A1 (en) 2011-08-18 2015-02-05 Layar B.V. Methods and systems for enabling creation of augmented reality content
US20150070347A1 (en) 2011-08-18 2015-03-12 Layar B.V. Computer-vision based augmented reality system
US8749396B2 (en) 2011-08-25 2014-06-10 Satorius Stedim Biotech Gmbh Assembling method, monitoring method, communication method, augmented reality system and computer program product
US9400941B2 (en) 2011-08-31 2016-07-26 Metaio Gmbh Method of matching image features with reference features
WO2013040274A2 (en) 2011-09-13 2013-03-21 Sadar 3D, Inc. Synthetic aperture radar apparatus and methods
US8821286B2 (en) 2011-09-29 2014-09-02 Wms Gaming, Inc. Wagering game system having motion sensing controllers
US9286711B2 (en) 2011-09-30 2016-03-15 Microsoft Technology Licensing, Llc Representing a location at a previous time period using an augmented reality display
CA3164530C (en) * 2011-10-28 2023-09-19 Magic Leap, Inc. System and method for augmented and virtual reality
JP6250547B2 (ja) 2011-11-23 2017-12-20 マジック リープ, インコーポレイテッドMagic Leap,Inc. 3次元仮想現実および拡張現実表示システム
US8989775B2 (en) 2012-02-29 2015-03-24 RetailNext, Inc. Method and system for WiFi-based identification of person tracks
US9075824B2 (en) 2012-04-27 2015-07-07 Xerox Corporation Retrieval system and method leveraging category-level labels
US9098229B2 (en) 2012-05-04 2015-08-04 Aaron Hallquist Single image pose estimation of image capture devices
US9116666B2 (en) 2012-06-01 2015-08-25 Microsoft Technology Licensing, Llc Gesture based region identification for holograms
US9671566B2 (en) 2012-06-11 2017-06-06 Magic Leap, Inc. Planar waveguide apparatus with diffraction element(s) and system employing same
US9582072B2 (en) 2013-09-17 2017-02-28 Medibotics Llc Motion recognition clothing [TM] with flexible electromagnetic, light, or sonic energy pathways
US9384737B2 (en) 2012-06-29 2016-07-05 Microsoft Technology Licensing, Llc Method and device for adjusting sound levels of sources based on sound source priority
EP2704055A1 (en) 2012-08-31 2014-03-05 Layar B.V. Determining space to display content in augmented reality
JP2014049934A (ja) 2012-08-31 2014-03-17 Sony Corp ヘッドマウントディスプレイ
US9134954B2 (en) 2012-09-10 2015-09-15 Qualcomm Incorporated GPU memory buffer pre-fetch and pre-back signaling to avoid page-fault
EP3502621B1 (en) 2012-09-21 2023-06-07 NavVis GmbH Visual localisation
GB201217372D0 (en) 2012-09-28 2012-11-14 Ucl Business Plc A system and method for annotating images by propagating information
US9177404B2 (en) 2012-10-31 2015-11-03 Qualcomm Incorporated Systems and methods of merging multiple maps for computer vision based tracking
US9132342B2 (en) * 2012-10-31 2015-09-15 Sulon Technologies Inc. Dynamic environment and location based augmented reality (AR) systems
US9188694B2 (en) * 2012-11-16 2015-11-17 Halliburton Energy Services, Inc. Optical interferometric sensors for measuring electromagnetic fields
US9160727B1 (en) 2012-11-30 2015-10-13 Microstrategy Incorporated Providing credential information
US9026847B2 (en) 2012-12-21 2015-05-05 Advanced Micro Devices, Inc. Hardware based redundant multi-threading inside a GPU for improved reliability
US20140176591A1 (en) 2012-12-26 2014-06-26 Georg Klein Low-latency fusing of color image data
WO2014105385A1 (en) 2012-12-27 2014-07-03 The Regents Of The University Of California Anamorphic stretch image compression
US9788714B2 (en) 2014-07-08 2017-10-17 Iarmourholdings, Inc. Systems and methods using virtual reality or augmented reality environments for the measurement and/or improvement of human vestibulo-ocular performance
IL308285B1 (en) 2013-03-11 2024-07-01 Magic Leap Inc System and method for augmentation and virtual reality
US9898866B2 (en) * 2013-03-13 2018-02-20 The University Of North Carolina At Chapel Hill Low latency stabilization for head-worn displays
JP6125670B2 (ja) * 2013-03-15 2017-05-10 インテル コーポレイション 収集された生物物理的信号の時間的パターンおよび空間的パターンに基づく脳‐コンピューターインターフェース(bci)システム
US9436887B2 (en) * 2013-03-15 2016-09-06 OrCam Technologies, Ltd. Apparatus and method for automatic action selection based on image context
CA3160567A1 (en) 2013-03-15 2014-09-18 Magic Leap, Inc. Display system and method
US9269003B2 (en) 2013-04-30 2016-02-23 Qualcomm Incorporated Diminished and mediated reality effects from reconstruction
US20140323148A1 (en) 2013-04-30 2014-10-30 Qualcomm Incorporated Wide area localization from slam maps
US9367960B2 (en) 2013-05-22 2016-06-14 Microsoft Technology Licensing, Llc Body-locked placement of augmented reality objects
US10254855B2 (en) 2013-06-04 2019-04-09 Wen-Chieh Geoffrey Lee High resolution and high sensitivity three-dimensional (3D) cursor maneuvering device
US10262462B2 (en) 2014-04-18 2019-04-16 Magic Leap, Inc. Systems and methods for augmented and virtual reality
US9874749B2 (en) 2013-11-27 2018-01-23 Magic Leap, Inc. Virtual and augmented reality systems and methods
US9129430B2 (en) 2013-06-25 2015-09-08 Microsoft Technology Licensing, Llc Indicating out-of-view augmented reality images
US9443355B2 (en) 2013-06-28 2016-09-13 Microsoft Technology Licensing, Llc Reprojection OLED display for augmented reality experiences
US9712473B2 (en) 2013-07-11 2017-07-18 Facebook, Inc. Methods, systems, and user interfaces for community-based location ratings
WO2015006784A2 (en) 2013-07-12 2015-01-15 Magic Leap, Inc. Planar waveguide apparatus with diffraction element(s) and system employing same
US10228242B2 (en) 2013-07-12 2019-03-12 Magic Leap, Inc. Method and system for determining user input based on gesture
US9514571B2 (en) 2013-07-25 2016-12-06 Microsoft Technology Licensing, Llc Late stage reprojection
FR3009625B1 (fr) * 2013-08-06 2017-01-06 Valotec Dispositif de localisation d'un ou plusieurs elements mobiles dans une zone predeterminee, et procede mis en œuvre dans un tel dispositif
JP6192010B2 (ja) 2013-09-05 2017-09-06 国立大学法人 東京大学 重み設定装置および方法
US9729864B2 (en) 2013-09-30 2017-08-08 Sony Interactive Entertainment Inc. Camera based safety mechanisms for users of head mounted displays
US20150097719A1 (en) * 2013-10-03 2015-04-09 Sulon Technologies Inc. System and method for active reference positioning in an augmented reality environment
JP6353214B2 (ja) 2013-11-11 2018-07-04 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置および画像生成方法
IL305162A (en) 2013-11-27 2023-10-01 Magic Leap Inc Virtual and augmented reality systems and methods
US9857591B2 (en) 2014-05-30 2018-01-02 Magic Leap, Inc. Methods and system for creating focal planes in virtual and augmented reality
US11402629B2 (en) 2013-11-27 2022-08-02 Magic Leap, Inc. Separated pupil optical systems for virtual and augmented reality and methods for displaying images using same
US9354778B2 (en) 2013-12-06 2016-05-31 Digimarc Corporation Smartphone-based methods and systems
CN106068514B (zh) 2013-12-19 2019-09-20 威智伦富智堡公司 用于在不受约束的媒体中识别面孔的***和方法
US9360935B2 (en) 2013-12-20 2016-06-07 Hong Kong Applied Science And Technology Research Institute Co. Ltd. Integrated bi-sensing optical structure for head mounted display
EP2887311B1 (en) * 2013-12-20 2016-09-14 Thomson Licensing Method and apparatus for performing depth estimation
US20160147063A1 (en) 2014-11-26 2016-05-26 Osterhout Group, Inc. See-through computer display systems
US9448409B2 (en) 2014-11-26 2016-09-20 Osterhout Group, Inc. See-through computer display systems
US10254856B2 (en) 2014-01-17 2019-04-09 Osterhout Group, Inc. External user interface for head worn computing
US9804395B2 (en) 2014-01-29 2017-10-31 Ricoh Co., Ltd Range calibration of a binocular optical augmented reality system
US20170076328A1 (en) 2014-03-04 2017-03-16 Google Inc. Map personalization based on social cues
US20160203624A1 (en) 2014-03-05 2016-07-14 Google Inc. System and Method for Providing Combined Multi-Dimensional Map Views
WO2015134958A1 (en) 2014-03-07 2015-09-11 Magic Leap, Inc. Virtual and augmented reality systems and methods
US10203762B2 (en) * 2014-03-11 2019-02-12 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
WO2015164696A1 (en) 2014-04-25 2015-10-29 Google Technology Holdings LLC Electronic device localization based on imagery
CN105005457B (zh) 2014-04-25 2019-04-09 腾讯科技(深圳)有限公司 地理位置展示方法及装置
US9652893B2 (en) 2014-04-29 2017-05-16 Microsoft Technology Licensing, Llc Stabilization plane determination based on gaze location
US9727341B2 (en) 2014-05-09 2017-08-08 Samsung Electronics Co., Ltd. Control flow in a thread-based environment without branching
KR101888566B1 (ko) 2014-06-03 2018-08-16 애플 인크. 실제 물체와 관련된 디지털 정보를 제시하기 위한 방법 및 시스템
US20150358539A1 (en) 2014-06-06 2015-12-10 Jacob Catt Mobile Virtual Reality Camera, Method, And System
US20150379772A1 (en) 2014-06-30 2015-12-31 Samsung Display Co., Ltd. Tracking accelerator for virtual and augmented reality displays
WO2016002409A1 (ja) 2014-07-01 2016-01-07 シャープ株式会社 フィールドシーケンシャル画像表示装置および画像表示方法
US10056054B2 (en) 2014-07-03 2018-08-21 Federico Fraccaroli Method, system, and apparatus for optimising the augmentation of radio emissions
US10198865B2 (en) 2014-07-10 2019-02-05 Seiko Epson Corporation HMD calibration with direct geometric modeling
US10162177B2 (en) * 2014-07-11 2018-12-25 Sixense Entertainment, Inc. Method and apparatus for self-relative body tracking for virtual reality systems using magnetic tracking
US9363644B2 (en) 2014-07-16 2016-06-07 Yahoo! Inc. System and method for detection of indoor tracking units
US9719871B2 (en) 2014-08-09 2017-08-01 Google Inc. Detecting a state of a wearable device
CN107111894B (zh) 2014-09-08 2022-04-29 西姆克斯有限责任公司 用于专业和教育训练的增强或虚拟现实模拟器
KR20170040342A (ko) 2014-09-09 2017-04-12 노키아 테크놀로지스 오와이 스테레오 이미지 녹화 및 재생
US10810159B2 (en) 2014-10-14 2020-10-20 Microsoft Technology Licensing, Llc. Modular updating of visualizations
US9478029B2 (en) 2014-10-23 2016-10-25 Qualcomm Incorporated Selection strategy for exchanging map information in collaborative multi-user SLAM systems
CN104361608B (zh) * 2014-10-27 2017-02-01 浙江大学宁波理工学院 一种工业用柔性导管内窥镜的定位跟踪方法
US10650574B2 (en) 2014-10-31 2020-05-12 Fyusion, Inc. Generating stereoscopic pairs of images from a single lens camera
WO2016073557A1 (en) 2014-11-04 2016-05-12 The University Of North Carolina At Chapel Hill Minimal-latency tracking and display for matching real and virtual worlds
US20160131904A1 (en) 2014-11-07 2016-05-12 Osterhout Group, Inc. Power management for head worn computing
US9818170B2 (en) 2014-12-10 2017-11-14 Qualcomm Incorporated Processing unaligned block transfer operations
EP3234871B1 (en) 2014-12-17 2020-11-25 Google LLC Generating numeric embeddings of images
US9696549B2 (en) 2014-12-22 2017-07-04 International Business Machines Corporation Selectively pairing an application presented in virtual space with a physical display
US9746921B2 (en) * 2014-12-31 2017-08-29 Sony Interactive Entertainment Inc. Signal generation and detector systems and methods for determining positions of fingers of a user
US9846968B2 (en) 2015-01-20 2017-12-19 Microsoft Technology Licensing, Llc Holographic bird's eye view camera
KR102331164B1 (ko) 2015-03-05 2021-11-24 매직 립, 인코포레이티드 증강 현실을 위한 시스템들 및 방법들
US10180734B2 (en) 2015-03-05 2019-01-15 Magic Leap, Inc. Systems and methods for augmented reality
CN107980100B (zh) 2015-03-07 2022-05-27 维里蒂工作室股份公司 分布式定位***和方法以及自定位设备
US9874932B2 (en) 2015-04-09 2018-01-23 Microsoft Technology Licensing, Llc Avoidance of color breakup in late-stage re-projection
US9814430B1 (en) 2015-04-17 2017-11-14 Bertec Corporation System and method for measuring eye movement and/or eye position and postural sway of a subject
CA2981107A1 (en) 2015-05-04 2016-11-10 Magic Leap, Inc. Separated pupil optical systems for virtual and augmented reality and methods for displaying images using same
CN104866829B (zh) 2015-05-25 2019-02-19 苏州大学 一种基于特征学习的跨年龄人脸验证方法
US10721280B1 (en) 2015-05-29 2020-07-21 Sprint Communications Company L.P. Extended mixed multimedia reality platform
US20160378863A1 (en) 2015-06-24 2016-12-29 Google Inc. Selecting representative video frames for videos
US10062010B2 (en) 2015-06-26 2018-08-28 Intel Corporation System for building a map and subsequent localization
US10192361B2 (en) 2015-07-06 2019-01-29 Seiko Epson Corporation Head-mounted display device and computer program
US10750161B2 (en) 2015-07-15 2020-08-18 Fyusion, Inc. Multi-view interactive digital media representation lock screen
US9875427B2 (en) 2015-07-28 2018-01-23 GM Global Technology Operations LLC Method for object localization and pose estimation for an object of interest
WO2017044965A1 (en) 2015-09-10 2017-03-16 Duke University Systems and methods for arbitrary viewpoint robotic manipulation and robotic surgical assistance
GB201518112D0 (en) 2015-10-13 2015-11-25 Bae Systems Plc Improvements in and relating to displays
US10338677B2 (en) 2015-10-28 2019-07-02 Microsoft Technology Licensing, Llc Adjusting image frames based on tracking motion of eyes
US10026212B2 (en) 2015-11-20 2018-07-17 Google Llc Electronic display stabilization using pixel velocities
US20170161853A1 (en) 2015-12-03 2017-06-08 James Carroll Gossweiler Mapping system that identifies site-specific real estate due diligence professionals and related service providers
WO2017096396A1 (en) 2015-12-04 2017-06-08 Magic Leap, Inc. Relocalization systems and methods
US10241569B2 (en) 2015-12-08 2019-03-26 Facebook Technologies, Llc Focus adjustment method for a virtual reality headset
FR3046261B1 (fr) 2015-12-24 2018-08-31 Starbreeze Paris Element mobile hybride, procede et dispositif pour interfacer une pluralite d'elements mobiles hybrides avec un systeme informatique, et ensemble pour systeme de realite virtuelle ou augmentee
US10130429B1 (en) 2016-01-06 2018-11-20 Ethicon Llc Methods, systems, and devices for controlling movement of a robotic surgical system
CA3011377C (en) 2016-02-05 2024-05-14 Magic Leap, Inc. Systems and methods for augmented reality
WO2017147178A1 (en) 2016-02-22 2017-08-31 Google Inc. Separate time-warping for a scene and an object for display of virtual reality content
US10334076B2 (en) 2016-02-22 2019-06-25 Google Llc Device pairing in augmented/virtual reality environment
EP3420413A1 (en) 2016-02-22 2019-01-02 Real View Imaging Ltd. A method and system for displaying holographic images within a real object
US9639935B1 (en) 2016-05-25 2017-05-02 Gopro, Inc. Apparatus and methods for camera alignment model calibration
WO2017210111A1 (en) 2016-05-29 2017-12-07 Google Llc Time-warping adjustment based on depth information in a virtual/augmented reality system
US10366536B2 (en) 2016-06-28 2019-07-30 Microsoft Technology Licensing, Llc Infinite far-field depth perception for near-field objects in virtual environments
JP6972105B2 (ja) 2016-08-02 2021-11-24 マジック リープ, インコーポレイテッドMagic Leap, Inc. 固定距離の仮想現実システムおよび拡張現実システムならびに方法
US11017712B2 (en) 2016-08-12 2021-05-25 Intel Corporation Optimized display image rendering
US10158979B2 (en) 2016-08-16 2018-12-18 Elenytics Group, Ltd. Method and system for wireless location and movement mapping, tracking and analytics
EP3500977B1 (en) 2016-08-22 2023-06-28 Magic Leap, Inc. Virtual, augmented, and mixed reality systems and methods
US10318115B2 (en) 2016-10-14 2019-06-11 OneMarket Network LLC System and method for presenting optimized map labels
US10942252B2 (en) * 2016-12-26 2021-03-09 Htc Corporation Tracking system and tracking method
US10330936B2 (en) 2017-01-19 2019-06-25 Facebook Technologies, Llc Focal surface display
US10812936B2 (en) 2017-01-23 2020-10-20 Magic Leap, Inc. Localization determination for mixed reality systems
CA3055218A1 (en) 2017-03-17 2018-09-20 Magic Leap, Inc. Mixed reality system with color virtual content warping and method of generating virtual content using same
CN110431599B (zh) 2017-03-17 2022-04-12 奇跃公司 具有虚拟内容扭曲的混合现实***及使用该***生成虚拟内容的方法
WO2018170409A1 (en) 2017-03-17 2018-09-20 Magic Leap, Inc. Mixed reality system with multi-source virtual content compositing and method of generating virtual content using same
EP3619704A4 (en) 2017-05-01 2020-11-11 Pure Depth Inc. SACCADED SEQUENTIAL FIELD FRAGMENTATION REDUCTION BASED ON HEAD TRACKING
US10620710B2 (en) 2017-06-15 2020-04-14 Microsoft Technology Licensing, Llc Displacement oriented interaction in computer-mediated reality
GB201709752D0 (en) 2017-06-19 2017-08-02 Advanced Risc Mach Ltd Graphics processing systems
US10859834B2 (en) 2017-07-03 2020-12-08 Holovisions Space-efficient optical structures for wide field-of-view augmented reality (AR) eyewear
US10403032B2 (en) 2017-08-22 2019-09-03 Qualcomm Incorporated Rendering an image from computer graphics using two rendering computing devices
US10445922B2 (en) 2017-08-31 2019-10-15 Intel Corporation Last-level projection method and apparatus for virtual and augmented reality
US10529086B2 (en) 2017-11-22 2020-01-07 Futurewei Technologies, Inc. Three-dimensional (3D) reconstructions of dynamic scenes using a reconfigurable hybrid imaging system
US10481689B1 (en) 2018-01-10 2019-11-19 Electronic Arts Inc. Motion capture glove
US10861215B2 (en) 2018-04-30 2020-12-08 Qualcomm Incorporated Asynchronous time and space warp with determination of region of interest
CN112513712B (zh) 2018-07-23 2023-05-09 奇跃公司 具有虚拟内容翘曲的混合现实***和使用该***生成虚拟内容的方法
US11176901B1 (en) 2019-08-13 2021-11-16 Facebook Technologies, Llc. Pan-warping and modifying sub-frames with an up-sampled frame rate
US10843067B1 (en) 2019-10-04 2020-11-24 Varjo Technologies Oy Input device, system, and method

Also Published As

Publication number Publication date
AU2016225963A1 (en) 2017-10-05
JP7513808B2 (ja) 2024-07-09
JP2023134530A (ja) 2023-09-27
US20220350400A1 (en) 2022-11-03
CN107533233B (zh) 2021-01-29
US11619988B2 (en) 2023-04-04
JP2018511122A (ja) 2018-04-19
EP3265866B1 (en) 2022-12-28
CA2979560C (en) 2023-11-07
IL284939B2 (en) 2023-02-01
IL284939B (en) 2022-10-01
US11429183B2 (en) 2022-08-30
IL254300A0 (en) 2017-10-31
IL254300B (en) 2021-08-31
KR102331164B1 (ko) 2021-11-24
IL284939A (en) 2021-08-31
AU2016225963B2 (en) 2021-05-13
JP7305690B2 (ja) 2023-07-10
CA2979560A1 (en) 2016-09-09
US20160259404A1 (en) 2016-09-08
JP2021101251A (ja) 2021-07-08
KR20170126482A (ko) 2017-11-17
NZ735465A (en) 2021-07-30
US20210116994A1 (en) 2021-04-22
WO2016141373A1 (en) 2016-09-09
CN107533233A (zh) 2018-01-02
CN112764536A (zh) 2021-05-07
IL296028A (en) 2022-10-01
EP3265866A1 (en) 2018-01-10
US20230195216A1 (en) 2023-06-22
EP3265866A4 (en) 2018-11-14

Similar Documents

Publication Publication Date Title
JP7305690B2 (ja) 拡張現実のためのシステムおよび方法
JP7297028B2 (ja) 拡張現実のためのシステムおよび方法
US10678324B2 (en) Systems and methods for augmented reality
JP7289944B2 (ja) 拡張現実システムを用いた電磁追跡
US11256090B2 (en) Systems and methods for augmented reality
NZ735802A (en) Traffic diversion signalling system and method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171107

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190207

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200310

A524 Written submission of copy of amendment under article 19 pct

Free format text: JAPANESE INTERMEDIATE CODE: A524

Effective date: 20200601

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20201120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210315

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20210315

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20210323

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20210324

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20210423

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20210427

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20210811

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20211101

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20220203

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20220412

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220505

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20220701

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20220706

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20220803

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20220803

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220901

R150 Certificate of patent or registration of utility model

Ref document number: 7136558

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150