JP7454544B2 - 拡張現実及び仮想現実画像を生成するためのシステム及び方法 - Google Patents

拡張現実及び仮想現実画像を生成するためのシステム及び方法 Download PDF

Info

Publication number
JP7454544B2
JP7454544B2 JP2021203251A JP2021203251A JP7454544B2 JP 7454544 B2 JP7454544 B2 JP 7454544B2 JP 2021203251 A JP2021203251 A JP 2021203251A JP 2021203251 A JP2021203251 A JP 2021203251A JP 7454544 B2 JP7454544 B2 JP 7454544B2
Authority
JP
Japan
Prior art keywords
vehicle
computer graphics
generation system
graphics generation
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021203251A
Other languages
English (en)
Other versions
JP2022036116A (ja
Inventor
スティーヴン シー ブラム
ブライアン ビー マキリアン
Original Assignee
ユニバーサル シティ スタジオズ リミテッド ライアビリティ カンパニー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ユニバーサル シティ スタジオズ リミテッド ライアビリティ カンパニー filed Critical ユニバーサル シティ スタジオズ リミテッド ライアビリティ カンパニー
Publication of JP2022036116A publication Critical patent/JP2022036116A/ja
Priority to JP2024037160A priority Critical patent/JP2024083345A/ja
Application granted granted Critical
Publication of JP7454544B2 publication Critical patent/JP7454544B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63GMERRY-GO-ROUNDS; SWINGS; ROCKING-HORSES; CHUTES; SWITCHBACKS; SIMILAR DEVICES FOR PUBLIC AMUSEMENT
    • A63G21/00Chutes; Helter-skelters
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0141Head-up displays characterised by optical features characterised by the informative content of the display

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Optics & Photonics (AREA)
  • Multimedia (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

本明細書で開示する主題は、遊園地のアトラクションに関し、より具体的には、遊園地のアトラクションにおいてスリル要因及び関心のある要素の強化をもたらすことに関する。
遊園地及び/又はテーマパークは、遊園地の来場者(例えば、家族及び/又はあらゆる年齢の人々)に楽しみを与えるのに役立つ様々な娯楽アトラクション、レストラン、及び乗物を含むことができる。例えば、アトラクションは、メリーゴーランドのような従来からある子ども向けの乗物、並びにジェットコースターのような従来からあるスリルを求める人向けの乗物を含むことができる。現在のところ、このようなアトラクションに関心のある要素及びスリル要因を加えることは、困難であり限定的でありうると認識されている。従来は、例えば、急勾配でねじれて曲がりくねったジェットコースターの軌道(track)のますます複雑なシステムを提供する他に、このようなジェットコースター及び/又は他の類似の絶叫マシンのスリル要因は、絶叫マシン自体の既存のコース又は物理的性質に限定されうる。従来技術に対して柔軟で効率的な方法で、このようなアトラクションに関心のある要素及びスリル要因を含めることが望ましいことが現在、認識されている。
本開示の範囲に相応する特定の実施形態を以下で要約する。これらの実施形態は、本開示の範囲を限定するものではなく、むしろ、これらの実施形態は、本実施形態の可能な形態の概要を提供することのみを意図している。実際のところ、本実施形態は、以下に記載する実施形態に類似することも又は異なることもできる様々な形態を包含することができる。
一実施形態において、乗物システムは、少なくとも1つの乗物移動体(ride vehicle)を含む。少なくとも1つの乗物移動体は、乗物の乗客を受け入れるように構成される。乗物システムは、乗物の乗客によって装着されるように構成された電子ゴーグルを含む。電子ゴーグルは、カメラ及びディスプレイを含む。乗物システムは、電子ゴーグルに通信可能に接続されたコンピュータグラフィックス生成システムを含み、これは、電子ゴーグルのカメラを介してキャプチャされた画像データに基づいて現実世界環境のストリーミングメディアを生成して、現実世界環境のストリーミングメディア上に重ね合わされる1又は2以上の仮想拡張(virtual augmentation)を生成して、電子ゴーグルのディスプレイ上に表示するために、現実世界環境のストリーミングメディアを1又は2以上の重ね合わされる仮想拡張と共に送信するように構成される。
第2の実施形態では、ウェアラブル電子デバイスがゴーグルを含む。ゴーグルは、ゴーグルのフレーム正面内に配置された1又は2以上のディスプレイと、テーマパークの乗物に関連する現実世界環境の画像をキャプチャするように構成された1又は2以上のカメラと、処理回路(processing circuitry)とを含む。処理回路は、現実世界環境の画像をコンピュータグラフィックス生成システムに送信して、コンピュータグラフィックス生成システムから信号を受信するように構成される。信号は、現実世界環境の仮想化のビデオストリームと共に、ビデオストリームに含まれた少なくとも1つの拡張現実(AR)画像又は少なくとも1つの仮想現実(VR)画像を含む。処理回路はまた、1又は2以上のディスプレイにビデオストリームを表示させるように構成される。
第3の実施形態において、方法は、コンピュータグラフィックス生成システムを介してリアルタイムデータを受信する段階を含む。リアルタイムデータを受信する段階は、遊園地の乗物のサイクル中に電子ゴーグルからリアルタイムビデオデータストリームを受信する段階を含む。方法はまた、受信したリアルタイムビデオデータストリームに基づいて遊園地の現実世界環境の仮想化を生成する段階と、拡張現実(AR)画像又は仮想現実(VR)画像を現実世界環境の仮想化の上にオーバーレイ表示する段階と、遊園地の乗物のサイクル中に、オーバーレイ表示された(overlaid)AR画像又はVR画像を現実世界環境の仮想化と共に電子ゴーグルに送信する段階とを含む。
第4の実施形態において、方法は、電子ゴーグルの処理回路を介してリアルタイム画像データを受信する段階を含む。リアルタイム画像データを受信する段階は、テーマパークの乗物のサイクル中に電子ゴーグルの1又は2以上のカメラを介してキャプチャされたリアルタイムビデオデータストリームを受信する段階を含む。方法はまた、キャプチャされたリアルタイム画像データに基づいてテーマパークの乗物の現実世界環境の仮想化を生成する段階と、拡張現実(AR)画像又は(VR)画像を現実世界環境の仮想化の上にオーバーレイ表示する段階と、テーマパークの乗物のサイクル中に、オーバーレイ表示されたAR画像又はVR画像を現実世界環境の仮想化と共に電子ゴーグルのディスプレイを介して表示する段階とを含む。
本開示のこれら並びに他の特徴、態様、及び利点は、図面全体にわたって同様の符号が同様の部分を表す添付図面を参照しながら以下の詳細説明を読むことでより良く理解されることになるであろう。
本実施形態による1又は2以上のアトラクションを含む遊園地の実施形態を示す図である。 本実施形態による拡張現実(AR)又は仮想現実(VR)ゴーグル及びコンピュータグラフィックス生成システムの実施形態を示す図である。 本実施形態による、図2のAR/VRゴーグルを通じて提供される様々なAR及びVR画像を含む図1の絶叫マシンの斜視図である。 本実施形態による、図2のコンピュータグラフィックス生成システムを用いることによって、乗車中にAR体験、VR体験、又は複合現実体験を生み出すのに有用な処理の実施形態を示すフローチャートである。 本実施形態による、図2のAR/VRゴーグルを用いることによって、乗車中にAR体験、VR体験、又は複合現実体験を生み出すのに有用な処理の実施形態を示すフローチャートである。
本開示の1又は2以上の特定の実施形態について以下で説明する。これらの実施形態の簡潔な説明を与えるために、本明細書では実際の実施構成の全ての特徴を説明するわけではない。このようないずれかの実際の実施構成の開発においては、あらゆるエンジニアリング又は設計プロジェクトの場合のように、システム関連及び業務関連の制約の遵守等の開発者の特定の目標を達成するために、多くの実施構成特有の決定を行う必要があることを理解されたい。更に、このような開発努力は、複雑で時間がかかることがあるが、それにも関わらず、本開示の利益を得る当業者にとっては、設計、製作、及び製造の日常的な仕事であることは理解されたい。
本実施形態は、遊園地又はテーマパーク内の絶叫マシンのようなアトラクションの一部分として、拡張現実(AR)体験、仮想現実(VR)体験、複合現実(例えば、AR及びVRの組合せ)体験、又はこれらの組合せを提供するシステム及び方法に関する。特定の実施形態において、各乗物の乗客には、絶叫マシンのサイクル中に装着する1組の電子ゴーグル又はメガネを提供することができる。電子ゴーグルは、AR体験、VR体験、又は両方の体験の組合せを促進することができる。したがって、電子ゴーグルは、AR/VRゴーグルと呼ぶことができる。具体的には、一実施形態において、電子ゴーグルは、少なくとも2つのカメラを含み、それぞれが乗物の乗客のそれぞれの視点(例えば右目及び左目の視界)に対応することができ、乗物の乗客及び/又は絶叫マシンの現実世界環境(例えば、物理的な遊園地の光景)のリアルタイムビデオデータ(例えば、使用中にキャプチャされて実質的にリアルタイムで送信されるビデオ)をキャプチャするために使用することができる。電子ゴーグルはまた、ディスプレイを含むこともできる。例えば、電子ゴーグルは、電子ゴーグルを使用する乗物の乗客の各々の目にそれぞれ対応する少なくとも2つのディスプレイを含むことができる。
特定の実施形態において、コンピュータグラフィックス生成システムを備えることもできる。コンピュータグラフィックス生成システムは、電子ゴーグルからリアルタイムビデオデータ(例えば、実質的にリアルタイムで送信されるライブビデオ)を受信して、乗物のサイクル中に、現実世界環境のビデオストリームを様々なAR、VR、又はAR及びVRの組合せの(AR/VR)グラフィカル画像と共に、乗物の乗客のそれぞれの電子ゴーグルのそれぞれのディスプレイに対してレンダリングすることができる。例えば、一実施形態において、コンピュータグラフィックス生成システムは、例えば、絶叫マシンのサイクル中のジェットコースターの軌道に沿った乗客の乗物移動体の位置又は場所、絶叫マシンのサイクル中に乗客の乗物移動体が移動した所定の距離に基づいて、又は絶叫マシンのサイクル内で所定の時間の経過後に、AR/VRグラフィカル画像を電子ゴーグルにレンダリングすることができる。このようにして、電子ゴーグル及びグラフィックス生成システムを用いて、AR体験、VR体験、又は複合現実体験を生み出すことによって、電子ゴーグル及びコンピュータグラフィックス生成システムは、絶叫マシンのスリル要因を強化し、結果的に乗物の乗客が絶叫マシンに乗車するときの乗客の体験を高めることができる。しかしながら、本明細書で説明する技術は、絶叫マシン及び/又は遊園地のアトラクションへの応用に限定されず、例えば、医学的応用(例えば、イメージガイド手術、非侵襲的イメージング分析)、エンジニアリング設計応用(例えば、エンジニアリングモデル開発)、製造、建設、及びメンテナンスへの応用(例えば、製品製造、新しいビルの建設、自動車修理)、学業及び/又は職業訓練への応用、運動への応用(例えば、ボディビル及び減量モデル)、テレビ(TV)応用(例えば、天気及びニュース)、及び同様のもののような様々な応用のいずれかに拡張可能であることも理解されたい。
上記に留意して、図1に示すような例示的な遊園地10等の遊園地の実施形態について説明することは有用とすることができる。図示するように、遊園地10は、絶叫マシン12と、遊園地施設のショッピングモール14(例えば、レストラン、土産物店等)と、付加的な娯楽アトラクション16(例えば、観覧車、ダークライド、又は他のアトラクション)とを含むことができる。特定の実施形態において、絶叫マシン12は、ジェットコースター又は他の類似の絶叫マシンを含むことができ、したがって、閉ループの軌道又は閉ループ軌道システム18(例えば、数マイルの軌道18)を更に含むことができる。軌道18は、例えば乗物の乗客22、24、26、28が絶叫マシン12に乗車するときに、乗客の乗物移動体20がその上を移動する(traverse)ことができるインフラストラクチャとして設けることができる。したがって、軌道18は、乗物移動体20の動きを定めることができる。しかしながら、別の実施形態では、例えば軌道18を、制御された経路に置き換えることができ、この場合、乗物移動体20の動きは、軌道18以外の電子システム、磁気システム、又は他の類似のシステムインフラストラクチャを介して制御することができる。乗客の乗物移動体20は、4人乗りの移動体として示されているが、別の実施形態では、乗客の乗物移動体20は、乗物の乗客22、24、26、28の単一又は複数のグループを受け入れるためにあらゆる数の乗客スペース(例えば、1、2、4、8、10、20、又はそれ以上のスペース)を含むことができることを理解されたい。
乗客の乗物移動体20が軌道18を移動する際に、乗物の乗客22、24、26、28には、絶叫マシン12の周囲又はその近くのエリアの風景(例えば、施設14、付加的な娯楽アトラクション16、その他)の移動ツアーを提示することができる。例えば、これは、絶叫マシン12の周囲の環境(例えば、絶叫マシン12を完全に又は部分的に囲むビル)を含むことができる。乗物の乗客22、24、26、28は、絶叫マシン12がとても楽しい体験であると発見することができるが、特定の実施形態では、例えば、絶叫マシン12のスリル要因を強化することによって、乗物の乗客22、24、26、28が絶叫マシン12に乗車するときの乗物の乗客22、24、26、28の体験を高めることは有用であろう。具体的には、遊園地10内部の施設14(例えば、レストラン、土産物店等)、付加的な娯楽アトラクション16(例えば、観覧車又は他のアトラクション)、或いは他の来場者又は歩行者だけの物理的風景を取得する代わりに、乗物移動体20が軌道18を移動する際に、乗物の乗客22、24、26、28に拡張現実(AR)体験又は仮想現実(VR)体験を与えることは有用であろう。
例えば、ここで図2を参照すると、乗物の乗客22、24、26、28の各々は、1組の電子ゴーグル34を装着することができ、特定の実施形態では、これはAR/VRメガネを含むことができる。別の実施形態では、電子ゴーグル34は、ヘルメット、サンバイザー、ヘッドバンド、1組の目隠し、1又は2以上の眼帯、及び/又は乗物の乗客22、24、26、28によって装着可能な他のヘッドウェア又はメガネ類の一部として含むことができる。図示するように、電子ゴーグル34は、無線ネットワーク48(例えば、無線ローカルエリアネットワーク(WLAN)、無線広域ネットワーク(WWAN)、近距離通信(NFC))を経由して(例えば、遊園地10内の)コンピュータグラフィックス生成システム32に通信可能に接続することができる。電子ゴーグル34を用いて、超現実環境30を生じることができ、これは、AR体験、VR体験、複合現実(例えば、AR及びVRの組合せ)体験、コンピュータ利用の現実体験、これらの組合せ、又は乗物の乗客22、24、26、28が絶叫マシン12に乗車する際の、乗物の乗客22、24、26、28のための他の類似の超現実環境を含むことができる。具体的には、乗物の乗客22、24、26、28が環境30によって完全に取り囲まれたように感じて、環境30を現実世界の物理的環境であると認識できるように、乗物の乗客22、24、26、28は、乗車の期間中にわたって電子ゴーグル34を装着することができる。具体的には、更に理解されるように、環境30は、乗物の乗客22、24、26、28が電子ゴーグル34を装着していなくても見ることができる現実世界画像44と、1又は2以上のAR又はVR画像45(例えば仮想拡張)とが電子的にマージされたリアルタイムビデオとすることができる。用語「リアルタイム」は、画像が、実際に観測される時間に実質的に近いタイムフレームで取得及び/又は提供されることを指す。
特定の実施形態において、電子ゴーグル34は、絶叫マシン12のスリル要因を、ひいては、絶叫マシン12に乗車中の乗物の乗客22、24、26、28の体験を強化するために、AR体験、VR、及び/又は他のコンピュータ利用の体験を生み出すのに有用とすることができる様々なウェアラブル電子デバイスのいずれかとすることができる。本明細書で議論するような電子ゴーグル34のメガネの実施形態は、ヘッドマウントディスプレイ(HMD)及び/又はヘッドアップディスプレイ(HUD)等の従来型デバイスとは異なっており、これらに優る多くの利点をもたらすことができる点は理解されたい。例えば、更に理解されるように、電子ゴーグル34は、絶叫マシン12のサイクル中に乗物の乗客22、24、26、28の位置、方向、及び動きを追跡するために使用可能な多くの方向及び位置センサ(例えば、加速度計、磁力計、ジャイロスコープ、全地球測位システム(GPS)受信機)を含むことができる。
同様に、電子ゴーグル34の特徴部(例えば、幾何学的態様又はマーキング)が、モニタリングシステム(例えば1又は2以上のカメラ)によってモニタされて、電子ゴーグル34の位置、場所、方向等、したがって、これを装着した人の位置、場所、方向等を判断することができる。更になお、乗物の乗客22、24、26、28も、モニタリングシステム33(例えばカメラ)によってモニタすることができ、これは、コンピュータグラフィックス生成システム32に通信可能に接続され、乗物の乗客22、24、26、28の位置、場所、方向等を識別するために用いることができる。また、乗物移動体20は、グラフィックス生成システム32がそれぞれの乗物の乗客22、24、26、28の視点を判断するために、それぞれの乗物の乗客22、24、26、28をモニタするのに役立つ1又は2以上のセンサ(例えば、重量センサ、質量センサ、動きセンサ、超音波センサ)を含むことができる。更に理解されるように、電子ゴーグル34は、個別のカメラ(例えば、カメラ40及び42)並びに個別のディスプレイ(ディスプレイ37及び38)を含むことができるので、乗物の乗客22、24、26、28の各々の目のそれぞれの視点に関するデータを電子ゴーグル34によってキャプチャすることができる。これらの利点の全ては、従来のHMD及び/又はHUD等のデバイスを使用して得ることはできない。
特定の実施形態において、環境30の生成をサポートするために、電子ゴーグル34は、プロセッサ35及びメモリ36等の処理回路を含むことができる。プロセッサ35は、ここに開示する技術を実施するための命令を実行するためにメモリ36に動作可能に接続することができ、1又は2以上のAR/VR画像45とマージされた現実世界画像44を生成して、絶叫マシン12のスリル要因を強化すること、ひいては、乗物の乗客22、24、26、28が絶叫マシンに乗車中の乗客の体験を強化することができる。これらの命令は、メモリ36及び/又は他のストレージ等の有形の非一時的コンピュータ可読媒体内に格納されたプログラム又はコードでエンコードすることができる。プロセッサ35は、汎用プロセッサ、システム・オンチップ(SoC)デバイス、特定用途向け集積回路(ASIC)、又は他の何らかの類似のプロセッサ構成とすることができる。
特定の実施形態において、更に図示するように、電子ゴーグル34は、(例えば、そうでなければメガネのレンズが見える場所である、電子ゴーグル34のフレーム正面内に設けることができる)1組のディスプレイ37及び38を含むこともでき、これらがそれぞれ、乗物の乗客22、24、26、28の各々の目に対応する。別の実施形態では、統合型ディスプレイを利用することができる。それぞれのディスプレイ37及び38が、不透明な液晶ディスプレイ(LCD)、不透明な有機発光ダイオード(OLED)ディスプレイ、又はリアルタイム画像44及びAR/VRグラフィカル画像45を乗物の乗客22、24、26、28に表示するのに有用な他の類似のディスプレイを各々含むことができる。別の実施形態では、それぞれのディスプレイ37及び38が各々、例えば、乗物の乗客22、24、26、28がそれぞれのディスプレイ37及び38を通じて実際の物理的な現実世界環境(例えば遊園地10)を見る能力を維持しながら、それぞれのディスプレイ37及び38上に現れる現実世界画像44及びAR/VRグラフィカル画像45を見ることを可能にするのに役立つシースルーのLCD又はシースルーのOLEDディスプレイを含むことができる。
カメラ40及び42はそれぞれ、乗物の乗客22、24、26、28のそれぞれの視点に対応することができ、現実世界環境のリアルタイムビデオデータ(例えばライブビデオ)をキャプチャするために使用することができる。一部の実施形態では、単一のカメラを利用することができる。具体的には、図示する実施形態において、ゴーグル34のカメラ40、42は、それぞれの乗物の乗客22、24、26、28の視点からそれぞれの乗物の乗客22、24、26、28によって知覚される現実世界の物理的環境(例えば、物理的な遊園地10)のリアルタイム画像をキャプチャするために使用することができる。更に理解されるように、電子ゴーグル34は次に、それぞれのカメラ40及び42を介してキャプチャされたリアルタイムビデオデータを、処理のためにコンピュータグラフィックス生成システム32に(例えば、電子ゴーグル34内に含まれた1又は2以上の通信インタフェースを介して無線で)送信することができる。しかしながら、別の実施形態では、それぞれのカメラ40及び42を介してキャプチャされるリアルタイムビデオデータは、プロセッサ35によって電子ゴーグル34上で処理することができる。加えて、電子ゴーグル34は、方向及び位置センサ(例えば、加速度計、磁力計、ジャイロスコープ、全地球測位システム(GPS)受信機等)、動き追跡センサ(例えば、電磁及び固体の動き追跡センサ)、及び電子ゴーグル34に含めることができる他のもので取得したデータに基づいて取得した及び/又は導き出した、方向データ、位置データ、視点データ(例えば、焦点距離、方向、姿勢、及びその他)、動き追跡データなどを送信することもできる。
特定の実施形態において、前述のように、同様にプロセッサ46(例えば、汎用プロセッサ又は他のプロセッサ)及びメモリ47等の処理回路を含むことができるコンピュータグラフィックス生成システム32は、電子ゴーグル34又はモニタリングシステム33から受信したリアルタイムビデオデータ(例えばライブデータ)、方向及び位置データ、及び/又は視点データを処理することができる。具体的には、コンピュータグラフィックス生成システム32は、リアルタイムビデオデータを生成された現実世界画像44及びAR/VRグラフィカル画像45と位置合わせするための基準フレームを生成するために、このデータを用いることができる。具体的には、方向データ、位置データ、視点データ、動き追跡データ等に基づいて生成された基準フレームを用いて、グラフィックス生成システム32は、次に、それぞれの乗物の乗客22、24、26、28が電子ゴーグル34を装着していない場合に知覚するものと時間的及び空間的に整合する現実世界画像44の光景をレンダリングすることができる。グラフィックス生成システム32は、それぞれの乗物の乗客22、24、26、28のそれぞれの方向、位置、及び/又は動きの変化を反映するために、現実世界画像のレンダリングを絶えず(例えばリアルタイムで)更新することができる。
例えば、特定の実施形態において、グラフィックス生成システム32は、毎秒約20フレーム(FPS)以上、約30FPS以上、約40FPS以上、約50FPS以上、約60FPS以上、約90FPS以上、又は約120FPS以上のリアルタイムレートで画像(例えば、現実世界画像44及びAR/VR画像45)をレンダリングすることができる。更に、グラフィックス生成システム32は、それぞれの乗物の乗客22、24、26、28によって装着されたそれぞれの電子ゴーグル34の各々のための(例えば、それぞれの乗物の乗客22、24、26、及び28のそれぞれの方向、位置、及び視点に関して調整された)現実世界画像44を生成することができる。
特定の実施形態において、前述のように、コンピュータグラフィックス生成システム32は、現実世界画像44上に重ね合わされる1又は2以上のAR/VRグラフィカル画像45を生成してレンダリングし、乗物の乗客22、24、26、28のための完全なAR体験、VR体験、複合現実、及び/又は他のコンピュータ利用の体験を生み出すこともできる。例えば、特定の実施形態において、コンピュータグラフィックス生成システム32は、議論したビデオマージ及び/又は光学マージ技術の1又は2以上を利用して、AR/VRグラフィカル画像45を現実世界画像44上に重ね合わせて、乗客の乗物移動体20が軌道18を移動する際に、乗物の乗客22、24、26、28が、遊園地10の現実世界の物理的環境(例えば、それぞれのディスプレイ37及び38を介してレンダリングされるビデオデータとして提供される)をAR/VRグラフィカル画像45(例えば仮想拡張)と共に知覚できるようにする。具体的には、現実世界画像44のレンダリングに関して上述したように、グラフィックス生成システム32は、現実世界画像44と時間的及び空間的に整合するAR/VRグラフィカル画像45の光景をレンダリングすることができ、AR/VRグラフィカル画像45がオーバーレイ表示された背景として現実世界画像44が現れるようにする。実際には、モデルは、あらゆる利用できる視点のためのコンピュータ生成画像を提供することができ、電子ゴーグル34の検出された方向に基づいて、表示するための特定の画像を電子ゴーグル34に提供することができる。
特定の実施形態において、グラフィックス生成システム32は、1又は2以上の明るさ、ライティング、又は陰影モデル、及び/又は他のフォトリアリスティック・レンダリングモデルを生成して、現実世界画像44及びAR/VRグラフィカル画像45をレンダリングする際に現実世界の物理的環境(例えば、晴天の日、少し曇った日、曇った日、夕方、夜)のコントラスト及び明るさを厳密に反映するように調整された現実世界画像44及びAR/VRグラフィカル画像45を生成することもできる。例えば、現実世界画像44及びAR/VRグラフィカル画像45のフォトリアリズムを高めるために、グラフィックス生成システム32は、一部の実施形態において、1又は2以上の天気予報及び/又は予測システム(例えば、全球予報システム(Global Forecast System)、ドップラーレーダー等)から気象関連データを受信することができる。次にグラフィックス生成システム32は、気象関連データ又は他の類似のデータを用いて、現実世界画像44及び/又はAR/VRグラフィカル画像45のコントラスト、明るさ、及び/又は他のライティング効果を調整することができる。
別の実施形態において、グラフィックス生成システム32は、電子ゴーグル34が備える1又は2以上の光センサから検出されたライティングに基づいて、又はカメラ40、42によってキャプチャされたリアルタイムビデオデータに基づいて、現実世界画像44及び/又はAR/VRグラフィカル画像45のコントラスト、明るさ、及び/又は他の照明効果を調整することができる。更に、前述のように、グラフィックス生成システム32は、それぞれの乗物の乗客22、24、26、28のそれぞれの方向、位置、視点、及び/又は動きの変化を反映するために、AR/VRグラフィカル画像45のレンダリングを絶えず(例えばリアルタイムで)更新することができる。例えば、図3に関して更に理解されるように、グラフィックス生成システム32は、それぞれの乗物の乗客22、24、26、28によって装着されたそれぞれのゴーグル34の各々のそれぞれのディスプレイ37及び38上に、それぞれの乗物の乗客22、24、26、及び28の変化するそれぞれの位置、視点、及び動きに関して調整されたAR/VRグラフィカル画像45をレンダリングすることができる。
更に理解されるように、グラフィックス生成システム32は、乗客の乗物移動体20が軌道18に沿って所定の地点を横切ると同時に、AR/VRグラフィカル画像45を生成することもできる。したがって、特定の実施形態において、グラフィックス生成システム32は、GPSデータ又は地理情報システム(GIS)データに加えて、受信した位置データ、視点データ、動きデータを使用して、例えば、絶叫マシン12及び軌道18、並びに絶叫マシン12のサイクル全体の間の絶叫マシン12を取り囲む周辺環境のイルミネーションマップを得ることができる。その後、グラフィックス生成システム32は、乗客の乗物移動体24が軌道18を移動する際に、特定の予め定められた地点(例えば、場所、距離、又は時間に基づく地点)においてAR/VRグラフィカル画像45を導入するために、このマップを使用することができる。更に、特定の実施形態では、グラフィックス生成システム32は、カメラ40、42によってキャプチャされたビデオ又は画像データを使用して、乗物移動体20の地点、及びいつAR/VRグラフィカル画像45を導入するかを判断することができる。例えば、グラフィックス生成システム32は、1又は2以上の幾何学的認識アルゴリズム(例えば、外形又は物体認識)又は測光認識アルゴリズム(例えば、顔認識又は特定の物体認識)を実行して、乗物移動体20の位置又は場所、並びに乗物の乗客22、24、26、28の視点位置を判断することができる。
図3は、グラフィックス生成システム32によって生成可能な、又は別の実施形態では、ゴーグル34によって生成可能なAR/VR画像45の様々な実施例を示す。具体的には、図3に図示するように、絶叫マシン12のサイクル中に、グラフィックス生成システム32は、現実世界画像44、並びに様々なAR/VRグラフィカル画像45を、それぞれの乗客22、24、26、28のそれぞれの電子ゴーグル34を通じて(例えば、それぞれのディスプレイ37及び38を介して)レンダリングすることができる。例えば、図示するように、現実世界画像44は、例えば、軌道18、施設14、及び/又は乗物の乗客22、24、26、28によって電子ゴーグル34が装着されていない場合でも、乗物の乗客22、24、26、28が絶叫マシン12の乗車中に見ることができる、他の乗客22、24、26、28を含む、他の来場者又は物体のレンダリングされた画像を含むことができる。しかしながら、図2に関して前述したように、特定の実施形態では、様々なAR/VRグラフィカル画像45を乗物の乗客22、24、26、28のそれぞれの電子ゴーグル34のそれぞれのディスプレイ37及び38にレンダリングすることによって、絶叫マシン12のスリル要因を強化するのに役立つ場合がある。
例えば、図3に更に示すように、グラフィックス生成システム32は、例えば、遊園地施設の第2のモール49のAR/VR画像、1又は2以上の架空のキャラクター50のAR/VR画像、軌道18の裂け目52のAR/VR画像、及び/又は付加的なAR/VR画像54、56、及び58を含むことができる(破線で図示された)AR/VRグラフィカル画像45をレンダリングすることができる。図3に図示するように、一実施形態において、AR/VR画像50は、乗客の乗物移動体20が軌道18を移動する際に、軌道18の一部分を遮るように(例えば、電子ゴーグル34を装着中に乗物の乗客22、24、26、28の視点から)現れるモンスター又は他の類似の架空のキャラクターの画像を含むことができる。付加された画像を含むAR/VRグラフィカル画像45(例えば仮想拡張)に加えて、グラフィックス生成システム32は、乗物の乗客22、24、26、28が電子ゴーグル34を装着している間はもはや見えない1又は2以上の現実世界の物理的物体の消去を含む特定のAR/VRグラフィカル画像45をレンダリングすることもできる点を理解されたい。例えば、施設49のAR/VR画像は、現実世界環境ではアトラクション16が配置された場所に出現することができる。
前述のように、特定の実施形態において、グラフィックス生成システム32は、例えば、絶叫マシン12のサイクル中のいずれかの所与の時間における軌道18に沿った乗客の乗物移動体20の位置又は場所、絶叫マシン12のサイクル中に乗客の乗物移動体20が移動した所定の距離に基づいて、又は所定の時間の経過後に、AR/VRグラフィカル画像45をレンダリングすることができる。例えば、一実施形態において、乗客の乗物移動体が(例えば、一定の距離62又は軌道18上の場所によって定義された)地点60まで移動すると、乗物の乗客22、24、26、28は、電子ゴーグル34によって、絶叫マシン12の所与のサイクル中に乗客の乗物移動体20がまだ移動していない軌道18上の場所を遮る架空のキャラクター50のAR/VR画像を見ることができる。同様に、乗客の乗物移動体20が(例えば、一定の距離62又は軌道18上の場所によって定義された)地点62まで移動すると、乗物の乗客22、24、26、28は、電子ゴーグル34によって、軌道18が支持されていない場所に乗客の乗物移動体20が遭遇するような(例えば、壊れた軌道が出現する)、軌道18の裂け目52のAR/VR画像を見ることができる。
更に、特定の実施形態において、グラフィックス生成システム32によって生成されるイルミネーションマップにより、グラフィックス生成システム32は、軌道18のあらゆるマイル、軌道18のあらゆるヤード、軌道18のあらゆるフィート、軌道18のあらゆるインチ、軌道18のあらゆるセンチメートル、又は軌道18のあらゆるミリメートルで、1又は2以上の検出及び/又はトリガポイント(例えば、AR/VR画像45を導入するためのトリガポイント)を含めることができる。このようにして、グラフィックス生成システム32は、十分な精度及び能力で、絶叫マシン12のサイクル中の位置又は場所、移動距離、及び/又は経過時間に基づいて、AR/VRグラフィカル画像45のレンダリングをいつ開始すべきかを検出することができる。更に、付加的なAR/VR画像54、56は、AR/VRグラフィカル画像45のうちの1又は2以上が、相互作用する(例えば、重複又は接触する)ように乗物の乗客22、24、26、28に対して現れることを例示する。同様に、AR/VR画像58は、乗物の乗客22、24、26、28の視線又は視点の外側(例えば、見えない場所)に現れることができるが、それにもかかわらず、乗物の乗客22、24、26、28のいずれもがAR/VR画像58の方向を見ると知覚することができるAR/VRグラフィカル画像45の実施例を示している。乗物の乗客22、24、26、28のうちの1又は2以上が、部分的に又は完全に異なる乗車体験を又は乗車テーマでさえも体験するように、乗物の乗客22、24、26、28のそれぞれに完全に異なる画像を提示できることに留意されたい。
特定の実施形態において、図2に関して上述したように、グラフィックス生成システム32は、それぞれの乗物の乗客22、24、26、及び28の各々が装着した電子ゴーグル34のそれぞれのディスプレイ37及び38の各々に、現実世界画像44及びAR/VR画像45をレンダリングすることができるので、乗物の乗客22、24、26、28は各々、それぞれの視野と時間的及び空間的に整合する現実世界画像44(例えば、施設14、絶叫マシン12等)及びAR/VR画像45(例えば、AR/VR画像又は仮想拡張49、50、52、54、56、及び58)を知覚することができ、これにより、乗客の乗物移動体20が軌道18を移動する際に、フォトリアリスティック効果を生み出すことができる。更に、別の実施形態において、AR/VR画像45(例えば、AR/VR画像又は仮想拡張49、50、52、54、56、及び58)に加えて、グラフィックス生成システム32は、電子ゴーグル34上でのAR/VR画像45の出現と同時に発生することができる1又は2以上の音響効果、触覚フィードバック効果、嗅覚効果等もトリガすることができる。一部の実施形態において、グラフィックス生成システム32は、電子ゴーグル34と一体化される。
このようにして、AR体験、VR体験、及び/又は他のコンピュータ利用の現実体験を生み出すために電子ゴーグル34及びグラフィックス生成システム32を備えることによって、電子ゴーグル34及びグラフィックス生成システム32は、絶叫マシン12のスリル要因を、ひいては、乗物の乗客22、24、26、28が絶叫マシン12に乗車中の体験を強化することができる。更に、従来のヘッドマウントディスプレイ(HMD)のようなより大きくてより煩わしいデバイスとは対照的な、AR/VRメガネ等の電子ゴーグル34を備えることによって、乗物の乗客22、24、26、28は、より大きな運動自由度、並びにより多くのフォトリアリスティック体験を得ることができる。例えば、乗物の乗客22、24、26、28の各々は、電子ゴーグル34を装着している場合であっても、乗物の他の乗客22、24、26、28の各々、並びに乗客の乗物移動体20自体を見ることができる。更に、電子ゴーグル34は、個別のカメラ40、42及び個別のディスプレイ37、38を含むことができるので、乗物の乗客22、24、26、28の各々の目のそれぞれの視点に関するデータを、電子ゴーグル34によってキャプチャすることができる。したがって、グラフィックス生成システム32は、乗物の乗客22、24、26、28のそれぞれの視点と一致する現実世界画像44及びAR/VR画像45を電子ゴーグル34のディスプレイ37、38上にレンダリングすることができる。このような利点は、従来のHMD等のデバイスを使用して得ることはできない。
ここで図4を参照すると、例えば、図2に示したコンピュータグラフィックス生成システム32を用いて、絶叫マシン乗車中にAR体験、VR体験、及び/又は他のコンピュータ利用の体験を生み出すのに有用な処理64の実施形態を示すフロー図が示されている。処理64は、非一時的コンピュータ可読媒体(例えばメモリ47)内に格納され、且つ、例えばコンピュータグラフィックス生成システム32内に含まれるプロセッサ46によって実行される開始コード又は命令を表すことができる。処理64は、プロセッサ46を用いて、リアルタイムでキャプチャされた画像データを受信して(ブロック66)分析する段階から開始することができる。例えば、プロセッサ46は、電子ゴーグル34のカメラ40、42によってキャプチャされたリアルタイムビデオデータ(例えばライブビデオ)を受信することができる。次に、処理64は、プロセッサ46がリアルタイムキャプチャ画像データに基づいて、現実世界環境の視覚化を生成する段階(ブロック68)に進むことができる。例えば、プロセッサ46は、電子ゴーグル34のディスプレイ37、38上に表示される、現実世界環境(例えば遊園地10)のビデオデータストリームを生成することができる。
次に、処理64は、プロセッサ46が1又は2以上の拡張又は仮想現実画像を、現実世界環境の生成された視覚化の上にオーバーレイ表示(ブロック70)又は重ね合わせる段階に進むことができる。例えば、プロセッサ46は、現実世界画像44(例えば、施設14、絶叫マシン12)のビデオデータストリームを生成して、1又は2以上のビデオマージ及び/又は光学マージ技術を用いて、現実世界画像44の上にAR/VR画像45(例えば、AR/VR画像又は仮想拡張49、50、52、54、56、及び58)をオーバーレイ表示又は重ね合わせることができる。上述のように、特定の実施形態において、例えば、グラフィックス生成システム32のプロセッサ46は、絶叫マシン12のサイクル中のいずれかの所与の時間における軌道18に沿った乗客の乗物移動体20の位置又は場所、絶叫マシン12のサイクル中に乗客の乗物移動体20が移動した所定の距離に基づいて、又は所定の時間の経過後に、AR/VRグラフィカル画像45をレンダリングすることができる。別の実施形態において、グラフィックス生成システム32は、カメラ40、42によってキャプチャされたビデオ又は画像データに対して1又は2以上の幾何学的又は測光認識アルゴリズムを実行して、乗物移動体20の地点、及びいつAR/VRグラフィカル画像45を導入するかを判断することができる。次に、処理64は、プロセッサ46を用いて、電子ゴーグル34のディスプレイ37、38上に表示されることになる、現実世界環境データ(例えば現実世界画像44)に加えてオーバーレイ表示された拡張又は仮想現実画像データ(例えばAR/VR画像45)を送信する(ブロック72)段階で完了し、絶叫マシン12のスリル要因を、ひいては、絶叫マシン12に乗車中の乗物の乗客22、24、26、28の体験を強化することができる。
同様に、図5は、例えば、図2に示した電子ゴーグル34を用いて、絶叫マシン乗車中にAR体験、VR体験、及び/又は他のコンピュータ利用の体験を生み出すのに有用な処理74の実施形態のフロー図を示す。処理74は、非一時的コンピュータ可読媒体(例えばメモリ36)内に格納され、且つ、例えば電子ゴーグル34内に含まれるプロセッサ35によって実行されるコード又は命令を含むことができる。処理74は、プロセッサ35を用いて、リアルタイムでキャプチャされた画像データを受信して(ブロック76)分析する段階から開始することができる。例えば、プロセッサ35は、電子ゴーグル34のカメラ40、42によってキャプチャされたリアルタイムビデオデータ(例えばライブビデオ)を受信することができる。次に、処理74は、プロセッサ35を用いて、リアルタイムキャプチャ画像データに基づいて、現実世界環境の視覚化を生成する段階(ブロック78)に進むことができる。例えば、プロセッサ35は、AR/VRゴーグル34のディスプレイ37及び38上に表示するために、現実世界環境(例えば遊園地10)のビデオデータストリームを生成することができる。
次に、処理74は、プロセッサ35が1又は2以上の拡張又は仮想現実画像を、現実世界環境の生成された視覚化の上にオーバーレイ表示(ブロック80)又は重ね合わされる段階に進むことができる。例えば、プロセッサ35は、現実世界画像44(例えば、施設14、絶叫マシン12等)のビデオデータストリームを生成して、1又は2以上のビデオマージ及び/又は光学マージ技術を用いて、現実世界画像44の上にAR/VR画像45(例えば、AR/VR画像又は仮想拡張49、50、52、54、56、及び58)をオーバーレイ表示又は重ね合わせることができる。例えば、電子ゴーグル34のプロセッサ35は、乗物の乗客22、24、26、28の位置及び方向、乗客の乗物移動体20の位置及び場所、所定の時間の経過、カメラ40、42によってキャプチャされたビデオ及び画像データ内の特定の特徴の幾何学的又は測光認識に基づいて、或いは、例えば絶叫マシン12のサイクル前又はその間に乗物の乗客22、24、26、28によって適用される1又は2以上のユーザ選択可能な設定に基づいて、AR/VR画像45(例えば、AR/VR画像又は仮想拡張49、50、52、54、56、及び58)をレンダリングすることができる。次に、処理74は、プロセッサ35がそれぞれのディスプレイ37及び38に、現実世界環境データ(例えば現実世界画像44)と共にオーバーレイ表示された拡張又は仮想現実画像データ(例えばAR/VR画像45)を電子ゴーグル34のディスプレイ37及び38上に表示させる(ブロック82)段階で完了し、絶叫マシン12のスリル要因を強化して、乗物の乗客22、24、26、28の体験を高めることができる。
本実施形態の技術的効果は、拡張現実(AR)体験、仮想現実(VR)体験、複合現実(例えばAR及びVRの組合せ)体験、又はこれらの組合せを、遊園地又はテーマパーク内の絶叫マシンの一部として提供するシステム及び方法に関する。特定の実施形態において、各乗物の乗客には、絶叫マシンのサイクル中に装着するための1組の電子ゴーグル(例えばAR/VRメガネ)を提供することができる。具体的には、電子ゴーグルは、少なくとも2つのカメラを含むことができ、これらはそれぞれ、乗物の乗客のそれぞれの視点に対応することができ、乗物の乗客及び/又は絶叫マシンの現実世界環境(例えば物理的な遊園地)のリアルタイムビデオデータ(例えばライブビデオ)をキャプチャするために使用することができる。また、電子ゴーグルは、乗物の乗客の各々の目にそれぞれ対応する少なくとも2つのディスプレイも含むことができる。特定の実施形態において、コンピュータグラフィックス生成システムを備えることもできる。コンピュータグラフィックス生成システムは、絶叫マシンのサイクル中に、現実世界環境のビデオストリームを様々なAR/VRグラフィカル画像と共に、乗物の乗客のそれぞれの電子ゴーグルのそれぞれのディスプレイにレンダリングすることができる。例えば、一実施形態において、グラフィックス生成システム32は、絶叫マシンのサイクル中のいずれかの所与の時間における軌道に沿った乗客の乗物移動体の位置又は場所、絶叫マシンのサイクル中に乗客の乗物移動体が移動した所定の距離に基づいて、又は所定の時間の経過後に、AR/VRグラフィカル画像を電子ゴーグルにレンダリングすることができる。このようにして、電子ゴーグル及びグラフィックス生成システムを用いて、AR体験、VR体験、及び/又は複合現実体験を生み出すことによって、電子ゴーグル及びグラフィックス生成システムは、絶叫マシンのスリル要因を強化し、ひいては、乗物の乗客が絶叫マシンに乗車するときの体験を高めることができる。
本明細書では本実施形態の特定の特徴のみを示して説明してきたが、当業者であれば、多くの修正及び変更に想到するであろう。したがって、添付の請求項は、全てのこのような修正及び変更が本開示の真の精神に含まれるものとして、これらを網羅するものであることは理解されたい。更に、開示する実施形態の特定の要素を相互に組合せて又は置き換えることができる点は理解されたい。

Claims (39)

  1. 乗物システムであって、
    乗客を受け入れるように構成された乗物移動体であって、前記乗客のモニタリングを可能にするように構成されたセンサを含む乗物移動体と、
    前記乗客によって装着されるように構成され、ディスプレイを含む電子ゴーグルと、
    前記電子ゴーグル及び前記乗物移動体の前記センサに通信可能に結合されたコンピュータグラフィックス生成システムと、を含み、
    前記コンピュータグラフィックス生成システムは、
    少なくとも前記乗物移動体の前記センサからのデータを用いて前記乗客の視点を決定し、
    前記決定された乗客の視点に少なくとも基づいて1又は複数の仮想拡張を生成し、
    前記電子ゴーグルの前記ディスプレイ上に表示される前記1又は複数の仮想拡張を送信する、
    ように構成され、
    前記センサは、前記コンピュータグラフィックス生成システムが前記乗客の視点を決定することを可能にするように構成された、重量センサ、質量センサ、動きセンサ、超音波センサ、又はこれらのいずれかの組み合わせを含む、
    乗物システム。
  2. 前記センサは、前記乗物移動体内の乗客の位置を検出するように構成される、請求項1に記載の乗物システム。
  3. 前記コンピュータグラフィックス生成システムは、乗物のサイクル中に、前記乗物移動体が所定の場所まで移動するとき、所定の距離を移動するとき、所定の時間の経過後、又はこれらのいずれかの組合せで、前記1又は複数の仮想拡張を生成するように構成される、請求項1に記載の乗物システム。
  4. 軌道を含むジェットコースターを含み、前記コンピュータグラフィックス生成システムは、前記乗物移動体が前記軌道に沿って所定の場所まで移動するとき、前記軌道に沿って所定の距離を移動するとき、所定の時間の経過後、又はこれらのいずれかの組合せで、前記1又は複数の仮想拡張を生成するように構成される、請求項3に記載の乗物システム。
  5. 前記コンピュータグラフィックス生成システムは、
    前記乗物システム、前記軌道、及び前記乗物のサイクルの間の前記乗物システムを囲む環境のイルミネーションマップを得て、
    前記乗物移動体が前記軌道に沿って移動するときに特定の地点において前記1又は複数の仮想拡張を導入するために前記イルミネーションマップを使用する、
    ように構成される、請求項4に記載の乗物システム。
  6. 前記コンピュータグラフィックス生成システムに通信可能に結合されたカメラを有するモニタリングシステムを含み、前記コンピュータグラフィックス生成システムは、前記カメラを使用して、前記乗客及び追加の乗客の位置、場所、方向、又はこれらのいずれかの組合せを識別するように構成される、請求項1に記載の乗物システム。
  7. 前記コンピュータグラフィックス生成システムは、前記それぞれの乗客の、それぞれの方向、それぞれの位置、それぞれの視点、それぞれの動き、又はこれらのいずれかの組合せの変化を反映するために前記1又は複数の仮想拡張を絶えずレンダリングするように構成される、請求項6に記載の乗物システム。
  8. 前記電子ゴーグルは、ヘッドウェアの一部である、請求項1に記載の乗物システム。
  9. 前記電子ゴーグルは、アイウェアの一部である、請求項1に記載の乗物システム。
  10. 前記電子ゴーグルのディスプレイはシースルーのディスプレイである、請求項1に記載の乗物システム。
  11. 乗物システムであって、
    複数の乗客を受け入れるように構成され、前記複数の乗客のモニタリングを可能にするように構成されたセンサを含む乗物移動体と、
    前記複数の乗客によってそれぞれ装着されるように構成された複数の電子ゴーグルであって、前記複数の電子ゴーグルの各電子ゴーグルはディスプレイを含む、複数の電子ゴーグルと、
    前記複数の電子ゴーグルに通信可能に結合されたコンピュータグラフィックス生成システムであって、前記複数の電子ゴーグルのそれぞれのディスプレイ上に表示するための仮想拡張を生成するように構成されたコンピュータグラフィックス生成システムと、
    前記コンピュータグラフィックス生成システムに通信可能に結合されたモニタリングシステムであって、前記複数の乗客の各乗客の方向及び位置データ、前記複数の乗客の各乗客の視点データ、又はこれらのいずれかの組合せを前記コンピュータグラフィックス生成システムに供給するように構成されたモニタリングシステムと、を含み、
    前記コンピュータグラフィックス生成システムは、前記方向及び位置データ、前記視点データ、又はこれらのいずれかの組合せに基づいて、前記複数の乗客の各乗客のそれぞれの視点を決定し、前記それぞれの視点に基づいて前記仮想拡張を生成し、かつ前記複数の電子ゴーグルのそれぞれのディスプレイ上に表示される前記仮想拡張を送信するように構成され、
    前記センサは、前記コンピュータグラフィックス生成システムが前記複数の乗客の各乗客のそれぞれの視点を決定することを可能にするように構成された、重量センサ、質量センサ、動きセンサ、超音波センサ、又はこれらのいずれかの組み合わせを含む、
    乗物システム。
  12. 前記モニタリングシステムは、前記コンピュータグラフィックス生成システムに通信可能に結合されたカメラを含み、前記コンピュータグラフィックス生成システムは、前記カメラを使用して、前記複数の乗客のそれぞれの位置、場所、方向、又はこれらのいずれかの組合せを識別するように構成される、請求項11に記載の乗物システム。
  13. 前記コンピュータグラフィックス生成システムは、前記モニタリングシステムを介して識別された前記複数の乗客の、それぞれの方向、それぞれの位置、それぞれの視点、それぞれの動き、又はこれらのいずれかの組合せの変化を反映するために前記仮想拡張を絶えずレンダリングするように構成される、請求項11に記載の乗物システム。
  14. 前記モニタリングシステムは、前記複数の乗客の各乗客によって装着されたそれぞれの電子ゴーグルのそれぞれの方向を決定するために前記複数の電子ゴーグルの物理的属性をモニタするように構成される、請求項11に記載の乗物システム。
  15. 前記コンピュータグラフィックス生成システムは、
    現実世界環境に関連するライティング、コントラスト、明るさ、又はこれらの組合せのインジケーションを受信し、
    前記現実世界環境のライティング、コントラスト、明るさ、又はこれらの組合せを反映するように前記生成された仮想拡張を調整する、
    ように構成される、請求項11に記載の乗物システム。
  16. 仮想的に拡張された遊園地の乗物を提供する方法であって、
    コンピュータグラフィックス生成システムを介してリアルタイムデータを受信することであって、前記リアルタイムデータを受信することは、遊園地の乗物の乗物移動体の位置センサからのデータを受信することを含み、前記位置センサは、前記コンピュータグラフィックス生成システムが乗物の乗客の視点を決定することを可能にするように構成された、重量センサ、質量センサ、動きセンサ、超音波センサ、又はこれらのいずれかの組み合わせを含む、リアルタイムデータを受信することと、
    前記位置センサからのデータに少なくとも基づいて前記乗物移動体内の前記乗物の乗客の視点を決定することと、
    前記乗物の乗客の視点に少なくとも基づいて仮想拡張を生成することと、
    前記遊園地の乗物のサイクル中に前記乗物の乗客によって装着された電子ゴーグルに前記仮想拡張を送信することと、
    を含む、方法。
  17. 前記リアルタイムデータを受信することは、前記乗物の乗客の方向に関連するデータを受信することを含む、請求項16に記載の方法。
  18. 前記乗物移動体が軌道に沿って所定の場所まで移動するとき、前記軌道に沿って所定の距離を移動するとき、前記遊園地の乗物のサイクル中に所定の時間経過した後、又はこれらのいずれかの組合せで、前記仮想拡張を生成することを含む、請求項16に記載の方法。
  19. 現実世界環境に関連するライティング、コントラスト、明るさ、又はこれらの組合せのインジケーションを受信することと、
    前記現実世界環境のライティング、コントラスト、明るさ、又はこれらの組合せを反映するように前記生成された仮想拡張を調整することと、
    を含む、請求項16に記載の方法。
  20. 遊園地内のビジュアルコンテンツを強化するためのシステムであって、
    定められた経路に沿って移動するユーザによって装着されるように構成された電子ゴーグルであって、ディスプレイ及び前記ユーザのモニタリングを可能にするように構成されたセンサを含む、電子ゴーグルと、
    前記電子ゴーグルに通信可能に結合されたコンピュータグラフィックス生成システムと、を含み、
    前記コンピュータグラフィックス生成システムは、
    前記ユーザが前記定められた経路に沿って移動するときに少なくとも前記センサからのデータを用いて前記ユーザの視点を決定し、
    前記決定されたユーザの視点に少なくとも基づいて1又は複数の仮想拡張を生成し、
    前記電子ゴーグルの前記ディスプレイ上に表示される前記1又は複数の仮想拡張を送信する、
    ように構成され、
    前記コンピュータグラフィックス生成システムは、前記遊園地内の乗物のサイクルのスタートからの所定の時間の経過と前記1又は複数の仮想拡張を調整するように構成される、
    システム。
  21. 前記コンピュータグラフィックス生成システムは、
    前記ユーザのモニタリング及び前記決定された視点に基づいて前記遊園地及び前記遊園地を囲む環境のイルミネーションマップを得て、前記ユーザが前記定められた経路に沿って移動するときに特定の地点において時間内に前記1又は複数の仮想拡張を導入するために前記イルミネーションマップを使用するように構成される、請求項20に記載のシステム。
  22. 遊園地内のビジュアルコンテンツを強化するためのシステムであって、
    定められた経路に沿って移動するユーザによって装着されるように構成された電子ゴーグルであって、ディスプレイ及び前記ユーザのモニタリングを可能にするように構成されたセンサを含む、電子ゴーグルと、
    前記電子ゴーグルに通信可能に結合されたコンピュータグラフィックス生成システムと、を含み、
    前記コンピュータグラフィックス生成システムは、
    前記ユーザが前記定められた経路に沿って移動するときに少なくとも前記センサからのデータを用いて前記ユーザの視点を決定し、
    前記決定されたユーザの視点に少なくとも基づいて1又は複数の仮想拡張を生成し、
    前記電子ゴーグルの前記ディスプレイ上に表示される前記1又は複数の仮想拡張を送信する、
    ように構成され、
    前記センサは、前記コンピュータグラフィックス生成システムが前記ユーザの視点を決定することを可能にするように構成された、重量センサ、質量センサ、動きセンサ、超音波センサ、又はこれらのいずれかの組み合わせを含む、
    システム。
  23. 軌道に沿って前記ユーザを運ぶように構成された乗物移動体を含み、前記軌道は前記定められた経路に沿って定められる、請求項20又は22に記載のシステム。
  24. 前記コンピュータグラフィックス生成システムは、前記乗物移動体が所定の時間の経過の間動作していることに応答して、前記1又は複数の仮想拡張を生成するように構成される、請求項23に記載の乗物システム。
  25. 前記センサは、前記遊園地内の前記ユーザの位置を検出するように構成される、請求項20又は22に記載のシステム。
  26. 前記コンピュータグラフィックス生成システムに通信可能に結合されたカメラを有するモニタリングシステムを含み、前記コンピュータグラフィックス生成システムは、前記カメラを使用して、前記ユーザ及び追加のユーザの位置、場所、方向、又はこれらのいずれかの組合せを識別するように構成される、請求項20又は22に記載のシステム。
  27. 前記コンピュータグラフィックス生成システムは、前記ユーザ及び追加のユーザの、それぞれの方向、それぞれの位置、それぞれの視点、それぞれの動き、又はこれらのいずれかの組合せの変化を反映するために前記1又は複数の仮想拡張のレンダリングを絶えず更新するように構成される、請求項20又は22に記載のシステム。
  28. 前記電子ゴーグルは、前記ユーザの頭部に装着されるように構成されたヘッドウェアの一部である、請求項20又は22に記載の乗物システム。
  29. 前記電子ゴーグルは、前記ユーザによって装着されるように構成されたアイウェアの一部である、請求項20又は22に記載のシステム。
  30. コンピュータグラフィックス生成システムを介してリアルタイムデータを受信することであって、前記リアルタイムデータを受信することは、乗物環境内のユーザによって装着された電子ゴーグルの位置センサからのデータを受信することを含み、前記位置センサは、前記コンピュータグラフィックス生成システムが客の視点を決定することを可能にするように構成された、重量センサ、質量センサ、動きセンサ、超音波センサ、又はこれらのいずれかの組み合わせを含む、リアルタイムデータを受信することと、
    前記位置センサから受信されたデータに少なくとも基づいて前記乗物環境内の前記ユーザの視点を決定することと、
    前記ユーザの視点に少なくとも基づいて仮想拡張を生成することと、
    前記ユーザに表示するための前記電子ゴーグルに前記仮想拡張を送信することと、
    を含む、方法。
  31. 前記電子ゴーグルが前記乗物環境内の所定の場所まで移動したこと、前記乗物環境内で所定の距離移動したこと、前記乗物環境のサイクル中の所定の時間の経過後、又はこれらのいずれかの組合せをモニタリングシステムが決定することに応答して前記1又は複数の仮想拡張を生成することを含む、請求項30に記載の方法。
  32. 前記リアルタイムデータを受信することは、前記ユーザの方向に関連するデータを受信することを含む、請求項30に記載の方法。
  33. 前記乗物環境に関連するライティング、コントラスト、明るさ、又はこれらの組合せのインジケーションを受信することと、前記乗物環境のライティング、コントラスト、明るさ、又はこれらの組合せを反映するように調整された前記仮想拡張を生成することと、
    を含む、請求項30に記載の方法。
  34. 前記電子ゴーグルの方向を決定するために前記電子ゴーグルの物理的属性をモニタすることを含み、前記仮想拡張を生成することは、前記決定されたユーザの視点及び前記決定された電子ゴーグルの方向に少なくとも基づいて前記仮想拡張を生成することを含む、請求項30に記載の方法。
  35. 乗物システムであって、
    乗物移動体の複数の乗客によってそれぞれ装着されるように構成された複数の電子ゴーグルであって、前記乗物移動体は前記複数の乗客のモニタリングを可能にするように構成されたセンサを含み、前記複数の電子ゴーグルの各ペアの電子ゴーグルはディスプレイを含む、複数の電子ゴーグルと、
    前記複数の電子ゴーグルに通信可能に結合されたコンピュータグラフィックス生成システムであって、前記複数の電子ゴーグルのそれぞれのディスプレイ上に表示するための仮想拡張を生成するように構成されたコンピュータグラフィックス生成システムと、
    前記コンピュータグラフィックス生成システムに通信可能に結合されたモニタリングシステムであって、前記複数の乗客の各乗客の方向データ及び位置データ、前記複数の乗客の各乗客の視点データ、又はこれらの組合せを前記コンピュータグラフィックス生成システムに供給するように構成されたモニタリングシステムと、を含み、
    前記コンピュータグラフィックス生成システムは、前記方向データ、前記位置データ、前記視点データ、又はこれらの組合せに基づいて前記複数の乗客の各乗客のそれぞれの視点を決定し、前記それぞれの視点に基づいて前記仮想拡張を生成し、かつ前記複数の電子ゴーグルのそれぞれのディスプレイ上に表示される前記仮想拡張を送信するように構成され、
    前記センサは、前記コンピュータグラフィックス生成システムが前記複数の乗客の各乗客のそれぞれの視点を決定することを可能にするように構成された、重量センサ、質量センサ、動きセンサ、超音波センサ、又はこれらのいずれかの組み合わせを含む、
    乗物システム。
  36. 前記モニタリングシステムは、前記コンピュータグラフィックス生成システムに通信可能に結合されたカメラを含み、前記コンピュータグラフィックス生成システムは、前記カメラを使用して、前記複数の乗客のそれぞれの位置、場所、方向、又はこれらのいずれかの組合せを識別するように構成される、請求項35に記載の乗物システム。
  37. 前記コンピュータグラフィックス生成システムは、前記モニタリングシステムを介して識別された前記複数の乗客の、それぞれの方向、それぞれの位置、それぞれの視点、それぞれの動き、又はこれらのいずれかの組合せの変化を反映するために前記仮想拡張を絶えずレンダリングするように構成される、請求項35に記載の乗物システム。
  38. 前記モニタリングシステムは、前記複数の乗客の各乗客によって装着された前記複数の電子ゴーグルのそれぞれの電子ゴーグルのそれぞれの方向を決定するために、前記複数の電子ゴーグルの物理的属性をモニタするように構成される、請求項35に記載の乗物システム。
  39. 前記コンピュータグラフィックス生成システムは、
    現実世界環境に関連するライティング、コントラスト、明るさ、又はこれらの組合せのインジケーションを受信し、
    前記現実世界環境のライティング、コントラスト、明るさ、又はこれらの組合せを反映するように前記生成された仮想拡張を調整する、
    ように構成される、請求項35に記載の乗物システム。
JP2021203251A 2014-08-18 2021-12-15 拡張現実及び仮想現実画像を生成するためのシステム及び方法 Active JP7454544B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2024037160A JP2024083345A (ja) 2014-08-18 2024-03-11 拡張現実及び仮想現実画像を生成するためのシステム及び方法

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/462,249 2014-08-18
US14/462,249 US9690375B2 (en) 2014-08-18 2014-08-18 Systems and methods for generating augmented and virtual reality images
JP2019110859A JP6995799B2 (ja) 2014-08-18 2019-06-14 拡張現実及び仮想現実画像を生成するためのシステム及び方法

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019110859A Division JP6995799B2 (ja) 2014-08-18 2019-06-14 拡張現実及び仮想現実画像を生成するためのシステム及び方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2024037160A Division JP2024083345A (ja) 2014-08-18 2024-03-11 拡張現実及び仮想現実画像を生成するためのシステム及び方法

Publications (2)

Publication Number Publication Date
JP2022036116A JP2022036116A (ja) 2022-03-04
JP7454544B2 true JP7454544B2 (ja) 2024-03-22

Family

ID=53836916

Family Applications (4)

Application Number Title Priority Date Filing Date
JP2017510337A Pending JP2017532825A (ja) 2014-08-18 2015-08-10 拡張現実及び仮想現実画像を生成するためのシステム及び方法
JP2019110859A Active JP6995799B2 (ja) 2014-08-18 2019-06-14 拡張現実及び仮想現実画像を生成するためのシステム及び方法
JP2021203251A Active JP7454544B2 (ja) 2014-08-18 2021-12-15 拡張現実及び仮想現実画像を生成するためのシステム及び方法
JP2024037160A Pending JP2024083345A (ja) 2014-08-18 2024-03-11 拡張現実及び仮想現実画像を生成するためのシステム及び方法

Family Applications Before (2)

Application Number Title Priority Date Filing Date
JP2017510337A Pending JP2017532825A (ja) 2014-08-18 2015-08-10 拡張現実及び仮想現実画像を生成するためのシステム及び方法
JP2019110859A Active JP6995799B2 (ja) 2014-08-18 2019-06-14 拡張現実及び仮想現実画像を生成するためのシステム及び方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2024037160A Pending JP2024083345A (ja) 2014-08-18 2024-03-11 拡張現実及び仮想現実画像を生成するためのシステム及び方法

Country Status (11)

Country Link
US (5) US9690375B2 (ja)
EP (2) EP3183631B1 (ja)
JP (4) JP2017532825A (ja)
KR (2) KR20230071200A (ja)
CN (2) CN107077209A (ja)
CA (1) CA2958285A1 (ja)
ES (1) ES2931321T3 (ja)
MY (1) MY187282A (ja)
RU (2) RU2018133485A (ja)
SG (3) SG10201708888QA (ja)
WO (1) WO2016028531A1 (ja)

Families Citing this family (80)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9299194B2 (en) 2014-02-14 2016-03-29 Osterhout Group, Inc. Secure sharing in head worn computing
US9753288B2 (en) 2014-01-21 2017-09-05 Osterhout Group, Inc. See-through computer display systems
US9690375B2 (en) * 2014-08-18 2017-06-27 Universal City Studios Llc Systems and methods for generating augmented and virtual reality images
US11372479B2 (en) 2014-11-10 2022-06-28 Irisvision, Inc. Multi-modal vision enhancement system
US11546527B2 (en) 2018-07-05 2023-01-03 Irisvision, Inc. Methods and apparatuses for compensating for retinitis pigmentosa
US20160264051A1 (en) * 2015-03-12 2016-09-15 Visionize Corp. Night Driving System and Method
DE102016000353A1 (de) * 2016-01-14 2017-07-20 Liebherr-Components Biberach Gmbh Kran-, Baumaschinen- oder Flurförderzeug-Simulator
DE102016104337A1 (de) * 2016-03-09 2017-09-14 Vr Coaster Gmbh & Co. Kg Positionsbestimmung und Ausrichtung eines Virtual Reality Headsets und Fahrgeschäft mit einem Virtual Reality Headset
US20170323482A1 (en) * 2016-05-05 2017-11-09 Universal City Studios Llc Systems and methods for generating stereoscopic, augmented, and virtual reality images
KR101885292B1 (ko) * 2016-09-20 2018-09-10 황동윤 가상 현실 구현 방법 및 이를 실행하는 시스템
JP6870264B2 (ja) * 2016-09-30 2021-05-12 セイコーエプソン株式会社 運動訓練装置およびプログラム
WO2018080408A1 (en) * 2016-10-25 2018-05-03 Polin Su Parklari Ve Havuz Sistemleri Anonim Sirketi A waterslide system
US10168857B2 (en) 2016-10-26 2019-01-01 International Business Machines Corporation Virtual reality for cognitive messaging
CN106406013A (zh) * 2016-12-12 2017-02-15 北京沃富瑞德文化传播有限公司 一种可以变幻出各种场景的魔幻道路***
GB2557912A (en) * 2016-12-15 2018-07-04 Figment Productions Ltd A system for providing a virtual reality experience
JP6596452B2 (ja) * 2017-01-23 2019-10-23 ティフォン インコーポレーテッド 表示装置、表示方法及びその表示プログラム、並びに、遊興施設
JP6654158B2 (ja) * 2017-01-23 2020-02-26 ティフォン インコーポレーテッドTyffon Inc. 映像提供システム、映像提供方法及び映像提供プログラム
KR101762381B1 (ko) * 2017-02-13 2017-08-04 (주)모노리스 차량 주행용 테마파크 시스템
US20180255285A1 (en) 2017-03-06 2018-09-06 Universal City Studios Llc Systems and methods for layered virtual features in an amusement park environment
US10467980B2 (en) * 2017-03-07 2019-11-05 Panasonic Avionics Corporation Systems and methods for supporting augmented reality applications on a transport vehicle
US10430147B2 (en) * 2017-04-17 2019-10-01 Intel Corporation Collaborative multi-user virtual reality
JP6796197B2 (ja) * 2017-04-28 2020-12-02 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、情報処理方法及びプログラム
US10656704B2 (en) 2017-05-10 2020-05-19 Universal City Studios Llc Virtual reality mobile pod
NO20171008A1 (en) * 2017-06-20 2018-08-06 Augmenti As Augmented reality system and method of displaying an augmented reality image
JP7142237B2 (ja) 2017-06-21 2022-09-27 パナソニックIpマネジメント株式会社 アトラクション装置の制御方法およびアトラクションシステム
US10639557B2 (en) * 2017-06-22 2020-05-05 Jntvr Llc Synchronized motion simulation for virtual reality
KR101921324B1 (ko) * 2017-07-06 2018-11-22 주식회사 인디고엔터테인먼트 궤도형 라이드의 실시간 위치 측정 방법
GR20170100338A (el) * 2017-07-19 2019-04-04 Γεωργιος Δημητριου Νουσης Μεθοδος παραγωγης και υποστηριξης θεατρικων παραστασεων επαυξημενης πραγματικοτητας και εγκατασταση για την εφαρμογη της
CN111093552A (zh) * 2017-08-16 2020-05-01 柯惠有限合伙公司 优化立体视觉内容的感知
CN107527080B (zh) * 2017-08-31 2020-10-16 重庆环漫科技有限公司 一种基于nfc的黑暗乘骑定位方式
KR101988128B1 (ko) * 2017-10-11 2019-06-11 이태홍 증강현실을 이용한 전동휠의 철로 주행장치
PL3479884T3 (pl) 2017-11-07 2021-08-23 Vr Coaster Gmbh & Co. Kg Urządzenie rekreacyjne, w szczególności kolejka górska, jak również sposób i program komputerowy do funkcjonowania takiego urządzenia rekreacyjnego
KR102102803B1 (ko) * 2017-12-07 2020-04-22 (주) 판타즈모 정적 마커 그리드 기반 실시간 실내 위치 측위 방법 및 그 시스템
CN108187340B (zh) * 2017-12-22 2021-08-13 深圳华侨城卡乐技术有限公司 一种基于儿童滑车设备的虚拟现实游戏平台及其控制方法
US10828572B1 (en) 2017-12-27 2020-11-10 Disney Enterprises, Inc. Systems and method for dynamic content unlock and adaptive control
US10838216B2 (en) * 2018-01-19 2020-11-17 Universal City Studios Llc Virtual reality/augmented reality rapid deployment system
CN108108027A (zh) * 2018-02-01 2018-06-01 福建蓝帽子互动娱乐科技股份有限公司 基于过山车的虚拟现实方法及***
CN112534467A (zh) 2018-02-13 2021-03-19 弗兰克.沃布林 对比度敏感度补偿的方法和装置
KR20190098472A (ko) 2018-02-14 2019-08-22 김현일 비콘 신호를 이용한 다중 가상현실 모션 시뮬레이션 구현 시스템 및 방법
IT201800003194A1 (it) * 2018-03-01 2019-09-01 Image Studio Consulting S R L Interazioni di giostra
WO2019200258A1 (en) * 2018-04-13 2019-10-17 Infinite Kingdoms Llc Smart tracking system
US11107281B2 (en) * 2018-05-18 2021-08-31 Valeo Comfort And Driving Assistance Shared environment for vehicle occupant and remote user
US10885689B2 (en) * 2018-07-06 2021-01-05 General Electric Company System and method for augmented reality overlay
CN108986232B (zh) * 2018-07-27 2023-11-10 江苏洪旭德生科技发展集团有限公司 一种在vr显示设备中呈现ar环境画面的方法
US11036284B2 (en) * 2018-09-14 2021-06-15 Apple Inc. Tracking and drift correction
US10636218B2 (en) * 2018-09-24 2020-04-28 Universal City Studios Llc Augmented reality for an amusement ride
US10777012B2 (en) 2018-09-27 2020-09-15 Universal City Studios Llc Display systems in an entertainment environment
US11189054B2 (en) * 2018-09-28 2021-11-30 Apple Inc. Localization and mapping using images from multiple devices
US10692294B1 (en) * 2018-12-17 2020-06-23 Universal City Studios Llc Systems and methods for mediated augmented physical interaction
US11200655B2 (en) 2019-01-11 2021-12-14 Universal City Studios Llc Wearable visualization system and method
US20220129649A1 (en) * 2019-02-11 2022-04-28 Mack Rides Gmbh & Co. Kg Amusement ride and method for operating an amusement ride
DE102019103301A1 (de) * 2019-02-11 2020-08-13 Mack Rides Gmbh & Co Kg Fahrgeschäft, sowie Verfahren zum Betreiben eines Fahrgeschäfts
WO2020166734A1 (ko) * 2019-02-13 2020-08-20 엘지전자 주식회사 모바일 디바이스 및 그 제어방법
US10825196B2 (en) * 2019-02-15 2020-11-03 Universal City Studios Llc Object orientation detection system
CN109862339A (zh) * 2019-02-19 2019-06-07 浙江舜宇光学有限公司 增强现实的再现方法、装置、***、存储介质和处理器
WO2020190254A1 (en) * 2019-03-15 2020-09-24 Google Llc Pickup and drop-off location identification for ridesharing and delivery via augmented reality
CN111746796B (zh) * 2019-03-29 2024-04-26 B/E航空公司 提供用于交通工具乘客的姿态参考的装置和方法
CN113865620B (zh) * 2019-04-16 2024-05-10 阿波罗智联(北京)科技有限公司 用于ar导航模拟的时间同步方法及装置
US11354862B2 (en) * 2019-06-06 2022-06-07 Universal City Studios Llc Contextually significant 3-dimensional model
US11209581B2 (en) * 2019-06-19 2021-12-28 Universal City Studios Llc Techniques for selective viewing of projected images
CN110327632A (zh) * 2019-07-04 2019-10-15 北京圣威特科技有限公司 一种基于agv运动***的虚拟现实运动平台
US10828576B1 (en) * 2019-07-29 2020-11-10 Universal City Studios Llc Motion exaggerating virtual reality ride systems and methods
KR102310340B1 (ko) * 2019-08-20 2021-10-07 엘지전자 주식회사 차량의 주행 정보를 이용하는 게임 시스템 및 차량 내에서의 게임 서비스 제공 방법
JP7306162B2 (ja) * 2019-08-28 2023-07-11 大日本印刷株式会社 サーバ、再生デバイス、コンテンツ再生システム、コンテンツ再生方法、及びプログラム
US11354852B2 (en) * 2019-10-10 2022-06-07 Disney Enterprises, Inc. Real-time projection in a mixed reality environment
CN110706538B (zh) * 2019-10-15 2022-01-11 国家电网有限公司 一种基于虚拟现实技术的模拟登塔训练平台
US11270412B2 (en) * 2019-10-31 2022-03-08 Apical Limited Image signal processor, method, and system for environmental mapping
US11424037B2 (en) 2019-11-22 2022-08-23 International Business Machines Corporation Disease simulation in medical images
US11095855B2 (en) 2020-01-16 2021-08-17 Microsoft Technology Licensing, Llc Remote collaborations with volumetric space indications
KR102387501B1 (ko) 2020-03-03 2022-04-19 주식회사 코아소프트 증강현실 제공장치 및 제공방법
CN111343449B (zh) * 2020-03-06 2022-06-07 杭州融梦智能科技有限公司 基于增强现实的显示方法及智能穿戴设备
US11188902B1 (en) * 2020-05-20 2021-11-30 Louise Dorothy Saulog Sano Live time connection application method and devices
KR102513792B1 (ko) * 2020-06-19 2023-03-24 시크릿타운 주식회사 테마파크형 유아동용 증강현실 컨텐츠 제공 시스템
DE102020128395A1 (de) 2020-10-28 2022-04-28 Mack Rides Gmbh & Co Kg Verfahren zum Betreiben eines Freizeitparks sowie Freizeitpark
KR102509799B1 (ko) * 2021-02-18 2023-03-14 손승희 레저용 썰매
KR102436229B1 (ko) * 2021-02-18 2022-08-24 손승희 레저용 썰매
CN112947315B (zh) * 2021-02-25 2022-11-01 华强方特(深圳)科技有限公司 基于双缓冲的轴运动数据在线生成方法及装置
US20230350203A1 (en) * 2022-04-29 2023-11-02 Snap Inc. Ar/vr enabled contact lens
WO2023219966A1 (en) * 2022-05-10 2023-11-16 Universal City Studios Llc Robotic arm integrated immersive reality
USD1023209S1 (en) 2022-05-26 2024-04-16 Sally Industries, Inc. Indoor amusement ride

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000126462A (ja) 1999-11-17 2000-05-09 Namco Ltd 仮想体験型ゲ―ム装置
WO2012033095A1 (ja) 2010-09-06 2012-03-15 国立大学法人東京大学 車両システム
JP2012068481A (ja) 2010-09-24 2012-04-05 Asia Air Survey Co Ltd 拡張現実表現システムおよび方法
US20130083008A1 (en) 2011-09-30 2013-04-04 Kevin A. Geisner Enriched experience using personal a/v system
US20130083003A1 (en) 2011-09-30 2013-04-04 Kathryn Stone Perez Personal audio/visual system

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3428151B2 (ja) * 1994-07-08 2003-07-22 株式会社セガ 画像表示装置を用いた遊戯装置
US5716281A (en) * 1995-11-27 1998-02-10 Sega Enterprises, Ltd. Game apparatus using a vehicle with an optical image synthesizing system
JPH10309381A (ja) * 1997-05-13 1998-11-24 Yoshimasa Tanaka 移動体用遊戯装置
AU2154000A (en) * 1998-12-07 2000-06-26 Universal City Studios, Inc. Image correction method to compensate for point of view image distortion
US7749089B1 (en) * 1999-02-26 2010-07-06 Creative Kingdoms, Llc Multi-media interactive play system
JP2001062154A (ja) 1999-08-23 2001-03-13 Kazuo Sawatake 稼動式遊戯乗り物用視覚効果及び音響効果機能ヘルメット。
JP2002112287A (ja) * 2000-09-28 2002-04-12 Takenaka Komuten Co Ltd 仮想現実呈示システム
JP2002132241A (ja) * 2000-10-27 2002-05-09 Nippon Telegr & Teleph Corp <Ntt> 実空間をベースにした仮想空間表示システム
US20030062675A1 (en) * 2001-09-28 2003-04-03 Canon Kabushiki Kaisha Image experiencing system and information processing method
US20070066396A1 (en) * 2002-04-05 2007-03-22 Denise Chapman Weston Retail methods for providing an interactive product to a consumer
US7479967B2 (en) * 2005-04-11 2009-01-20 Systems Technology Inc. System for combining virtual and real-time environments
US7788215B2 (en) * 2005-11-29 2010-08-31 Universal City Studios Llp Amusement ride with rider-selected integrated audio
US20080030429A1 (en) * 2006-08-07 2008-02-07 International Business Machines Corporation System and method of enhanced virtual reality
JP5067850B2 (ja) * 2007-08-02 2012-11-07 キヤノン株式会社 システム、頭部装着型表示装置、その制御方法
US7837567B2 (en) * 2007-12-05 2010-11-23 Disney Enterprises, Inc. Method and system for customizing a theme park experience
US8303406B2 (en) * 2008-11-24 2012-11-06 Disney Enterprises, Inc. System and method for providing an augmented reality experience
US20100182340A1 (en) * 2009-01-19 2010-07-22 Bachelder Edward N Systems and methods for combining virtual and real-time physical environments
RU2433487C2 (ru) * 2009-08-04 2011-11-10 Леонид Михайлович Файнштейн Способ проецирования изображения на поверхности реальных объектов
US20110141246A1 (en) 2009-12-15 2011-06-16 Justin Michael Schwartz System and Method for Producing Stereoscopic Images
US9342610B2 (en) * 2011-08-25 2016-05-17 Microsoft Technology Licensing, Llc Portals: registered objects as virtualized, personalized displays
KR20190133080A (ko) * 2011-09-19 2019-11-29 아이사이트 모빌 테크놀로지 엘티디 증강 현실 시스템용 터치프리 인터페이스
US9428404B2 (en) * 2011-10-04 2016-08-30 Massachusetts Institute Of Technology Water extraction using a directional solvent
US8727896B2 (en) * 2012-03-14 2014-05-20 Anton Frolov Underground and underwater amusement attractions
JP6337433B2 (ja) * 2013-09-13 2018-06-06 セイコーエプソン株式会社 頭部装着型表示装置および頭部装着型表示装置の制御方法
US9715764B2 (en) * 2013-10-03 2017-07-25 Honda Motor Co., Ltd. System and method for dynamic in-vehicle virtual reality
US9996975B2 (en) * 2014-03-18 2018-06-12 Dreamworks Animation L.L.C. Interactive multi-rider virtual reality ride system
US9155971B1 (en) * 2014-05-28 2015-10-13 Disney Enterprises, Inc. Selective illumination of physical scenery in amusement park rides
GB2527503A (en) * 2014-06-17 2015-12-30 Next Logic Pty Ltd Generating a sequence of stereoscopic images for a head-mounted display
DE102014111386A1 (de) 2014-08-11 2016-02-11 Mack Rides Gmbh & Co. Kg Verfahren zum Betreiben eines Fahrgeschäftes, insbesondere einer Achterbahn
CN106029190B (zh) * 2014-08-11 2020-03-10 Vr考斯特有限及两合公司 操作装置,尤其为游乐设施、运输工具、健身设备等的方法
US9690375B2 (en) * 2014-08-18 2017-06-27 Universal City Studios Llc Systems and methods for generating augmented and virtual reality images

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000126462A (ja) 1999-11-17 2000-05-09 Namco Ltd 仮想体験型ゲ―ム装置
WO2012033095A1 (ja) 2010-09-06 2012-03-15 国立大学法人東京大学 車両システム
JP2012068481A (ja) 2010-09-24 2012-04-05 Asia Air Survey Co Ltd 拡張現実表現システムおよび方法
US20130083008A1 (en) 2011-09-30 2013-04-04 Kevin A. Geisner Enriched experience using personal a/v system
US20130083003A1 (en) 2011-09-30 2013-04-04 Kathryn Stone Perez Personal audio/visual system

Also Published As

Publication number Publication date
US20230185367A1 (en) 2023-06-15
JP2022036116A (ja) 2022-03-04
US20170364145A1 (en) 2017-12-21
US20160048203A1 (en) 2016-02-18
EP3183631B1 (en) 2022-10-26
RU2017108928A3 (ja) 2018-09-23
KR20230071200A (ko) 2023-05-23
RU2018133485A (ru) 2018-11-07
JP2017532825A (ja) 2017-11-02
WO2016028531A1 (en) 2016-02-25
SG10201708888QA (en) 2017-11-29
US20190196581A1 (en) 2019-06-27
MY187282A (en) 2021-09-18
CA2958285A1 (en) 2016-02-25
US9690375B2 (en) 2017-06-27
KR20170042363A (ko) 2017-04-18
ES2931321T3 (es) 2022-12-28
US10241568B2 (en) 2019-03-26
US10606348B2 (en) 2020-03-31
CN115661415A (zh) 2023-01-31
EP3183631A1 (en) 2017-06-28
RU2017108928A (ru) 2018-09-23
JP2024083345A (ja) 2024-06-21
US20200192469A1 (en) 2020-06-18
US11586277B2 (en) 2023-02-21
RU2018133485A3 (ja) 2022-02-10
SG10201912420PA (en) 2020-02-27
EP4145255A1 (en) 2023-03-08
JP2019166405A (ja) 2019-10-03
RU2668532C2 (ru) 2018-10-01
SG11201701072YA (en) 2017-03-30
CN107077209A (zh) 2017-08-18
JP6995799B2 (ja) 2022-01-17

Similar Documents

Publication Publication Date Title
JP7454544B2 (ja) 拡張現実及び仮想現実画像を生成するためのシステム及び方法
US11670054B2 (en) Systems and methods for generating stereoscopic, augmented, and virtual reality images
CN110352085B (zh) 用于游乐园环境中的分层虚拟特征的***和方法
JP2017532825A5 (ja)
US20190026946A1 (en) Systems and methods for virtual reality and augmented reality path management
KR20210097195A (ko) 중재된 증강된 물리적 상호작용을 위한 시스템 및 방법
KR101829656B1 (ko) 증강된 가상현실을 이용하는 융합공간 기반의 무동력 승마장치 및 방법

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220114

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220114

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230213

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230515

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230713

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230907

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240311

R150 Certificate of patent or registration of utility model

Ref document number: 7454544

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150