JP7351638B2 - 画像生成装置、画像表示システム、および情報提示方法 - Google Patents

画像生成装置、画像表示システム、および情報提示方法 Download PDF

Info

Publication number
JP7351638B2
JP7351638B2 JP2019082184A JP2019082184A JP7351638B2 JP 7351638 B2 JP7351638 B2 JP 7351638B2 JP 2019082184 A JP2019082184 A JP 2019082184A JP 2019082184 A JP2019082184 A JP 2019082184A JP 7351638 B2 JP7351638 B2 JP 7351638B2
Authority
JP
Japan
Prior art keywords
visitor
player
head
image
mounted display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019082184A
Other languages
English (en)
Other versions
JP2020181264A (ja
Inventor
准一 村本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Priority to JP2019082184A priority Critical patent/JP7351638B2/ja
Priority to US16/843,186 priority patent/US11460697B2/en
Publication of JP2020181264A publication Critical patent/JP2020181264A/ja
Priority to US17/879,271 priority patent/US11714281B2/en
Priority to US18/210,518 priority patent/US20230324685A1/en
Application granted granted Critical
Publication of JP7351638B2 publication Critical patent/JP7351638B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/212Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/56Computing the motion of game characters with respect to other game characters, game objects or elements of the game scene, e.g. for simulating the behaviour of a group of virtual soldiers or for path finding
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Cardiology (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、ヘッドマウントディスプレイに表示させる画像を生成する画像生成装置、画像表示システム、およびそれが行う情報提示方法に関する。
対象空間を自由な視点から鑑賞できる画像表示システムが普及している。例えばヘッドマウントディスプレイにパノラマ映像を表示し、ヘッドマウントディスプレイを装着したユーザが頭部を回転させると視線方向に応じたパノラマ画像が表示されるようにしたシステムが開発されている。ヘッドマウントディスプレイを利用することで、映像への没入感を高めたり、ゲームなどのアプリケーションの操作性を向上させたりすることもできる。また、ヘッドマウントディスプレイを装着したユーザが物理的に移動することで映像として表示された空間内を仮想的に歩き回ることのできる、いわゆるフリーローム型の仮想現実を体験するアトラクションも実用化されている。
外光を遮断する遮蔽型のヘッドマウントディスプレイの場合、それを装着したユーザには当然、外界の様子がわからない。例えばフリーローム型のアトラクションでは、プレイエリアに元から存在する物やプレイヤ同士は仮想世界の設定上、認識できるものの、プレイエリアで生じた設備の不具合やプレイヤの体調不良など想定外の事態について認識することは難しい。そのような突発的な事態を収拾しようと係員などがプレイエリアに入ると、その係員自身が障害物となり、さらに危険性が増すことも考えられる。
本発明はこうした課題に鑑みてなされたものであり、その目的は、ヘッドマウントディスプレイを装着したユーザの移動において安全性を高める技術を提供することにある。
上記課題を解決するために、本発明のある態様は画像生成装置に関する。この画像生成装置は、ヘッドマウントディスプレイに表示させる仮想世界を構築する空間構築部と、ヘッドマウントディスプレイを装着したプレイヤの頭部の位置および姿勢に基づき、当該プレイヤの視点に対応する視野で仮想世界を表した表示画像を生成しヘッドマウントディスプレイに表示させる画像生成部と、プレイヤが移動可能な空間における、ヘッドマウントディスプレイを装着しない入場者の存在に係る情報を取得する入場者情報取得部と、を備え、空間構築部は、入場者が存在している期間、当該存在を象徴するオブジェクトを仮想世界の対応する位置に表すことを特徴とする。
本発明の別の態様は画像表示システムに関する。この画像表示システムは、上記の画像生成装置と、当該画像生成装置から出力された画像を表示するヘッドマウントディスプレイと、入場者を検出し画像生成装置にそのデータを送信するセンサと、を含むことを特徴とする。
本発明のさらに別の態様も画像表示システムに関する。この画像表示システムは、上記の画像生成装置と、当該画像生成装置から出力された画像を表示するヘッドマウントディスプレイと、入場者が滞在範囲に出入りしたことを表す操作を受け付け、画像生成装置にその情報を送信する入力装置と、を含むことを特徴とする。
本発明のさらに別の態様は、情報提示方法に関する。この情報提示方法は、ヘッドマウントディスプレイに表示させる仮想世界を構築するステップと、ヘッドマウントディスプレイを装着したプレイヤの頭部の位置および姿勢に基づき、当該プレイヤの視点に対応する視野で仮想世界を表した表示画像を生成しヘッドマウントディスプレイに表示させるステップと、プレイヤが移動可能な空間における、ヘッドマウントディスプレイを装着しない入場者の存在に係る情報を取得するステップと、入場者が存在している期間、当該存在を象徴するオブジェクトを仮想世界の対応する位置に表すステップと、を含むことを特徴とする。
なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、コンピュータプログラム、データ構造、記録媒体などの間で変換したものもまた、本発明の態様として有効である。
本発明によれば、ヘッドマウントディスプレイを装着したユーザの移動において安全性を高めることができる。
本実施の形態のヘッドマウントディスプレイの外観例を示す図である。 本実施の形態に係る基本的なシステムの構成図である。 本実施の形態で画像生成装置がヘッドマウントディスプレイに表示させる画像世界の例を説明するための図である。 本実施の形態を適用できるフリーローム展示におけるプレイエリアを模式的に示す図である。 本実施の形態の画像生成装置の内部回路構成を示す図である。 本実施の形態における画像生成装置の機能ブロックの構成を示す図である。 本実施の形態において、入場者の存在に応じて空間構築部が仮想世界に与える変化を例示す図である。 図7で示した仮想世界を、画像生成部があるプレイヤからの視野で表した表示画像の例を示す図である。 本実施の形態において、入場者の存在に応じて空間構築部が仮想世界に与える変化の別の例を示す図である。 図9で示した仮想世界を、画像生成部があるプレイヤからの視野で表した表示画像の例を示す図である。 本実施の形態における画像生成装置が表示画像を生成し、ヘッドマウントディスプレイに表示させる処理手順を示すフローチャートである。 本実施の形態で設定する滞在範囲をプレイヤの待避場所として利用する場合に、画像生成部が生成する表示画像の例を示す図である。
図1は、ヘッドマウントディスプレイ100の外観例を示す。ヘッドマウントディスプレイ100は、本体部110、前頭部接触部120、および側頭部接触部130を含む。ヘッドマウントディスプレイ100は、ユーザの頭部に装着してディスプレイに表示される静止画や動画などを鑑賞し、ヘッドホンから出力される音声や音楽などを聴くための表示装置である。ヘッドマウントディスプレイ100に内蔵または外付けされたモーションセンサにより、ヘッドマウントディスプレイ100を装着したユーザの頭部の回転角や傾きといった姿勢情報を計測することができる。これにより、ユーザの頭部の動きに応じて表示画像の視野を変化させれば、画像世界にいるような感覚を与えることができる。
ただし本実施の形態のヘッドマウントディスプレイの形状や構造は図示するものに限らない。例えばヘッドマウントディスプレイ100の前面に、ユーザの顔が向いた方向の実空間の様子を撮影するカメラを設けてもよい。この場合、撮影画像を解析することによりユーザの顔の向きや頭部の位置を取得したり、前方にある実物体の位置を求めたりすることができる。当該撮影画像は表示画像に利用することもできる。
図2は、本実施の形態に係る基本的なシステムの構成図である。ヘッドマウントディスプレイ100は、無線通信またはUSBなどの周辺機器を接続するインタフェース205により画像生成装置200に接続される。画像生成装置200は、さらにネットワークを介してサーバに接続されてもよい。その場合、サーバは、複数のユーザがネットワークを介して参加できるゲームなどのオンラインアプリケーションを画像生成装置200に提供してもよい。
画像生成装置200は、ヘッドマウントディスプレイ100を装着したユーザの頭部の位置や姿勢に基づき、表示画像に対する仮想的な視点の位置や視線の方向を決定し、それに応じた視野となるように表示画像を生成してヘッドマウントディスプレイ100に出力する。この限りにおいて画像を表示する目的は様々であってよい。例えば画像生成装置200は、電子ゲームを進捗させつつゲームの舞台である仮想世界を表示画像として生成してもよいし、観賞用としての静止画や動画を表示させてもよい。
仮想的な視点を中心に広い角度範囲で全天周(360°)画像を表示すれば、画像世界に没入している感覚を与えられる。なお画像生成装置200は図示するように、ヘッドマウントディスプレイ100とインタフェース205で接続された別の装置であってもよいし、ヘッドマウントディスプレイ100の内部に一体的に設けられていてもよい。
図3は、本実施の形態で画像生成装置200がヘッドマウントディスプレイ100に表示させる画像世界の例を説明するための図である。この例ではユーザ12が仮想世界である部屋にいる状態を作り出している。仮想世界を定義するワールド座標系には図示するように、壁、床、窓、テーブル、テーブル上の物などのオブジェクトを配置している。画像生成装置200は当該ワールド座標系に、ユーザ12の視点の位置や視線の方向に応じてビュースクリーン14を定義し、そこにオブジェクトの像を射影することで表示画像を描画する。
ユーザ12の視点の位置や視線の方向(以後、これらを包括的に「視点」と呼ぶ場合がある)を所定のレートで取得し、これに応じてビュースクリーン14の位置や方向を変化させれば、ユーザの視点に対応する視野で画像を表示させることができる。視差を有するステレオ画像を生成し、ヘッドマウントディスプレイ100において左右の目の前に表示させれば、仮想空間を立体視させることもできる。これによりユーザ12は、あたかも表示世界の部屋の中に没入しているような仮想現実を体験することができる。なお図示する例では表示対象を、コンピュータグラフィックスを前提とする仮想世界としたが、パノラマ写真など実世界の撮影画像とコンピュータグラフィックスを融合させた画像でもよい。
このような技術によれば、ユーザ12は仮想世界を自由に動きまわることもできる。例えば同一空間にいる他のユーザの位置や姿勢も取得し、そのアバターであるオブジェクトを仮想空間に配置すれば、ユーザ12には当該他のユーザも仮想世界の一部として視認される。これを利用し、複数のプレイヤが仮想空間で一緒に戦ったり探検したりするマルチプレイヤ型のフリーロームの仮想体験アトラクション(以後、「フリーローム展示」と呼ぶ)が実用化されている。
図4は、本実施の形態を適用できるフリーローム展示におけるプレイエリアを模式的に示している。図示するプレイエリア20は、フリーローム展示を行っている実空間を俯瞰した状態を示している。このプレイエリア20には、ヘッドマウントディスプレイ100a~100dをそれぞれ装着したプレイヤ10a~10dが存在する。ただしプレイヤの数は限定されない。画像生成装置200は、図3で示したように仮想世界を構築し、各プレイヤ10a~10dが装着するヘッドマウントディスプレイ100a~100dに、それぞれの視点に応じた視野で仮想世界を表示させる。
各プレイヤ10a~10dの位置や姿勢は、例えばヘッドマウントディスプレイ100a~100dが内蔵するモーションセンサの計測値や、ヘッドマウントディスプレイ100a~100dが備えるカメラによる撮影画像を取得し、それを解析することによって得られる。この情報は、仮想世界の構築にも利用できる。すなわち各プレイヤ10a~10dの動きを反映させる、それぞれのオブジェクトを仮想世界に配置することにより、他のプレイヤに存在や動きを認識させる。
このようなフリーローム展示では基本的に、プレイヤ10a~10d以外の者がプレイエリアに入ることは想定されない。ところが設備の不具合、プレイヤの体調異変や怪我、プレイヤが私物を落としたなど規模の大小にかかわらず突発的な事態が生じ、係員などプレイヤ以外の者が入らざるを得ないことも十分に考えられる。この場合、他のプレイヤを含む仮想世界しか見えていないプレイヤ10a~10dにとっては、見えない物の気配を感じることで注視が削がれたり、衝突する危険性が生じたりすることになる。また安全のため小さな異変が生じるたびに全てのプレイを中断させるのは現実的ではない。
そこで本実施の形態では、プレイヤ以外の入場者を検出する機構を別途設け、その存在をプレイヤ10a~10dが見ている画像に反映させる。以後、プレイエリアに入るプレイヤ以外の者を「入場者」と呼ぶ。入場者はヘッドマウントディスプレイ100を装着していない、すなわち実空間が見えている者であり、プレイヤの位置や姿勢を追跡する通常のフリーロームのシステムでは追跡対象とされない者である。その限りにおいて入場者がプレイエリアに入る目的や入場者の属性は特に限定されない。
これを実現するため、本実施の形態の画像表示システムには、画像生成装置200とヘッドマウントディスプレイ100a~100dのほか、入場者16をトラッキングするセンサ22と、その存在を表示画像に反映させる操作を受け付ける入力装置24を導入する。例えば入場者16に、超音波や所定波長帯の光を発生させる装置26やマーカーを装着させ、センサ22は当該超音波や光を検出することにより入場者16の存在、およびその位置を追跡する。
画像生成装置200は、その追跡結果に基づき、プレイヤ10a~10dが見ている仮想世界のうち対応する位置に、入場者16を表すオブジェクトを配置する。当然、入場者16が移動していれば、仮想世界におけるオブジェクトも移動させる。入場者16が装置26を装着する位置を頭部、あるいはそれより高い位置における前方(顔の向く側)や身体の前面などに規則づけておくことにより、顔や身体の向きから入場者16が向かう方向も予測できる。
装置26を前面に取り付けた帽子を作成しておき、入場者16がプレイエリアに入る際は、当該帽子を被るようにしてもよい。あるいは装置26を先端に取り付けられるようにした棒を有する装着具を準備し、入場者16がプレイエリアに入る際、それを身につけることにより、頭部より高い位置で装置26が固定されるようにしてもよい。装置26の位置を高くするほど、入場者自身やプレイヤ10a~10dによって隠蔽される可能性が低くなり、センサ22による検出を安定化させることができる。
画像生成装置200は入場者16を表すオブジェクトに、その進行方向を明示することにより、プレイヤ10a~10dに当該進行方向を把握させるようにしてもよい。これらのことにより、プレイヤ10a~10dは、入場者の存在を直感的に理解でき、衝突しないような行動を自然にとることができる。なおセンサ22の形状や位置は図示するものに限らない。例えばセンサ22は天井などから室内を俯瞰する状態で設置してもよいし、可動としてもよい。またセンサ22は画像生成装置200に内蔵してもよい。
入力装置24は、リモートコントローラ、ゲームコントローラ、携帯端末、押下用ボタン、ジョイスティックなど一般的な入力装置のいずれでもよく、入場者16の存在を、プレイヤ10a~10dが見ている画像に反映させるタイミングを決定づける操作を受け付ける。例えば事前に、入場者16の滞在範囲28をプレイエリア20に明示しておき、そこに入った入場者16自身が、入力装置24を操作して滞在範囲28に入った旨を入力する。入力装置は当該操作を受け付け、その情報を画像生成装置200に送信すると、画像生成装置200は、プレイヤ10a~10dが見ている仮想世界のうち滞在範囲28に対応する領域に、当該領域を示すオブジェクトを出現させる。
これによりプレイヤ10a~10dは滞在範囲を避けて行動することができる。ここで滞在範囲28の広さ、形状、個数は限定されない。例えば滞在範囲28は図示するように、プレイエリア20の端と接しないアイランド型としてもよいし、プレイエリア20の隅の領域としてもよい。あるいはプレイエリア20を横切るような通路型としてもよい。また滞在範囲28は発光マーカーで囲ったり境界を示すテープを床に貼り付けたりして、入場者16が実世界でその範囲をわかるようにする。
入力装置24は入場者16が操作するのに限らず、プレイエリア20外にいる管理者などが、入場者16が滞在範囲28に入ったことを監視モニターなどで確認したうえ、操作してもよい。また入場者16が滞在範囲28から退出する際は、入力装置24を介してその旨を入力することにより、画像生成装置200は、滞在範囲28を示すオブジェクトを仮想世界から除去する。
センサ22を導入することにより、入場者16はプレイエリア20を自由に移動できる。一方、滞在場所が限定されるときは、入場者16はプレイヤを避けて滞在範囲28に入り入力装置24を操作すればよい。このように入場者16のとるべき行動によって、センサ22と入力装置24はどちらか一方のみを導入してもよい。
あるいは入場者16が移動しているときはセンサ22で追跡してその移動を入場者のアバターであるオブジェクトに反映させ、滞在範囲28に入ったらセンサ22または入力装置24を用いてそれを検知し、滞在範囲を示すオブジェクトに表現を切り替えてもよい。この場合、センサ22のみ、あるいはセンサ22と入力装置24の協働により、入場者の存在を象徴するオブジェクトが異なる形式で表現されつづけることになる。いずれにしろ画像生成装置200は、センサ22、入力装置24とも、有線または無線で接続され、それぞれから送信される情報を随時取得する。
図5は画像生成装置200の内部回路構成を示している。画像生成装置200は、CPU(Central Processing Unit)222、GPU(Graphics Processing Unit)224、メインメモリ226を含む。これらの各部は、バス230を介して相互に接続されている。バス230にはさらに入出力インタフェース228が接続されている。
入出力インタフェース228には、USBやIEEE1394などの周辺機器インタフェースや、有線又は無線LANのネットワークインタフェースからなる通信部232、ハードディスクドライブや不揮発性メモリなどの記憶部234、ヘッドマウントディスプレイ100へデータを出力する出力部236、ヘッドマウントディスプレイ100、センサ22、入力装置24からデータを入力する入力部238、磁気ディスク、光ディスクまたは半導体メモリなどのリムーバブル記録媒体を駆動する記録媒体駆動部240が接続される。
CPU222は、記憶部234に記憶されているオペレーティングシステムを実行することにより画像生成装置200の全体を制御する。CPU222はまた、リムーバブル記録媒体から読み出されてメインメモリ226にロードされた、あるいは通信部232を介してダウンロードされた各種プログラムを実行する。GPU224は、ジオメトリエンジンの機能とレンダリングプロセッサの機能とを有し、CPU222からの描画命令に従って描画処理を行い、表示画像を図示しないフレームバッファに格納する。そしてフレームバッファに格納された表示画像をビデオ信号に変換して出力部236に出力する。メインメモリ226はRAM(Random Access Memory)により構成され、処理に必要なプログラムやデータを記憶する。
図6は、本実施の形態における画像生成装置200の機能ブロックの構成を示している。画像生成装置200は上述のとおり、電子ゲームを進捗させたりサーバと通信したりする一般的な情報処理を行ってよいが、図6では特に、入場者の出入りに応じた表示画像の制御機能に着目して示している。なお図6で示される画像生成装置200の機能のうち少なくとも一部を、ヘッドマウントディスプレイ100に実装してもよい。あるいは、画像生成装置200の少なくとも一部の機能を、ネットワークを介して画像生成装置200に接続されたサーバに実装してもよい。
また図6に示す機能ブロックは、ハードウェア的には、図5に示したCPU、GPU、各種メモリなどの構成で実現でき、ソフトウェア的には、記録媒体などからメモリにロードした、データ入力機能、データ保持機能、画像処理機能、通信機能などの諸機能を発揮するプログラムで実現される。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。
画像生成装置200は、プレイエリアにおけるプレイヤの位置情報を取得するプレイヤ位置情報取得部50、ユーザの視点に係る情報を取得する視点情報取得部52、入場者の出入りやその位置情報を取得する入場者情報取得部58、仮想世界を構築する空間構築部60、表示画像を生成する画像生成部54、表示画像の生成に必要な画像データを記憶する画像データ記憶部62、およびヘッドマウントディスプレイ100に表示画像を出力する出力部56を備える。
プレイヤ位置情報取得部50は、図5の入力部238、CPU222などで構成され、プレイエリアにおける各プレイヤの位置を所定のレートで取得する。上述のとおり各プレイヤが装着するヘッドマウントディスプレイ100が内蔵する各種モーションセンサやカメラの出力データを逐次取得し、それを解析することによりプレイヤの位置を取得できる。
あるいはプレイエリアに別途設けたカメラなどを用いて、所定色の発光マーカーを装着したプレイヤの位置や姿勢を画像解析により追跡してもよい。またはプレイヤの身体にも、センサ22で検出可能な超音波などを発生させる装置を取り付けてもよい。この場合、プレイヤ位置情報取得部50は、センサ22から送信されるデータを取得して、それに基づきプレイヤの位置や姿勢を特定する。
プレイヤ位置情報取得部50はさらに、プレイヤの姿勢を表すパラメータの正常範囲を規定するデータを内部で保持し、特定したプレイヤの姿勢が当該正常範囲から逸脱している状態を検出する。プレイヤが装着しているマーカーなどからの光や超音波を検出し、それによりプレイヤの姿勢を特定する場合、入場者の接近によりプレイヤの検出結果が影響を受け、それに基づき特定する姿勢が実際とは異なる異常な状態となることが考えられる。
そこでプレイヤ位置情報取得部50がそれを検知することにより、プレイヤを表すオブジェクトの姿勢に反映させないようにする。正常範囲を規定するデータとして、人間が一度にとり得る姿勢や、有限時間での可動範囲などを表すデータを準備する。後者の場合、プレイヤ位置情報取得部50は前の時間ステップからの姿勢の変化に基づき、正常範囲から逸脱しているか否かを判定する。
視点情報取得部52は、図5の入力部238、CPU222などで構成され、各プレイヤの視点の位置や視線の方向を所定のレートで取得する。例えばヘッドマウントディスプレイ100に内蔵した加速度センサの出力値を逐次取得し、それによって頭部の姿勢を取得する。上述のとおりプレイエリアに別途設けたカメラなどを用いて撮影された、ヘッドマウントディスプレイ100に設けた発光マーカーの像を解析することにより、実空間での頭部の位置を取得してもよい。
あるいはヘッドマウントディスプレイ100側に備えたカメラが撮影した画像を、SLAM(Simultaneous Localization and Mapping)などの技術により解析し、プレイヤの頭部の位置や姿勢を取得してもよい。頭部の位置や姿勢が判明すれば、プレイヤの視点の位置および視線の方向はおよそ特定できる。このほか、プレイヤの視点に係る情報を取得する手法として様々に考えられることは当業者には理解されるところである。なおプレイヤ位置情報取得部50と視点情報取得部52は処理内容が重複することから、視点情報取得部52が実施した処理の結果をプレイヤ位置情報取得部50が流用することもできる。
入場者情報取得部58は、図5の入力部238、CPU222などで構成され、プレイヤ以外の入場者の存在に係る情報を取得する。具体的には、センサ22から送信されるデータに基づき、入場者の出入りを検出するとともに、プレイエリアでの位置を所定のレートで取得する。あるいはプレイエリアに事前に設定された滞在範囲への入場者の出入りを、入力装置24から送信されるデータに基づき検出する。上述のとおり入場者情報取得部58は、センサ22および入力装置24のうちどちらか一方からデータを取得してもよいし、双方からデータを取得してもよい。
空間構築部60は図5のCPU222などで構成され、ヘッドマウントディスプレイ100に表示させる仮想世界の空間を構築する。どのような空間を構築するかはフリーローム展示の目的によって様々である。いずれにしろ空間構築部60は、表示対象の仮想的な場所に、各プレイヤに対応するオブジェクトを配置する。プレイヤ位置情報取得部50が取得したプレイヤの追跡結果に応じて各オブジェクトを移動させることにより、仮想世界でプレイヤ同士が視認されるようにする。プレイヤ位置情報取得部50がプレイヤの姿勢も取得する場合は、空間構築部60はプレイヤの姿勢に対応するようにオブジェクトの姿勢も変化させる。
ここでプレイヤ位置情報取得部50が取得する、プレイヤの計算上の姿勢が正常範囲から逸脱したことが検出されたら、空間構築部60は、対応するオブジェクトの姿勢をその直前の状態で固定する。この際、空間構築部60は、固定した状態のオブジェクトを半透明にしたり色を変えたりするなど態様を変化させることにより、一時的な措置であることが表示画像上で他のプレイヤに理解されるようにする。計算上の姿勢が正常範囲に戻ったことを検出したら、空間構築部60は対応するオブジェクトの態様を元に戻し、その時点での姿勢を当該オブジェクトに反映させる。
さらに空間構築部60は、入場者がプレイエリアに入っている期間、その存在を象徴するオブジェクトを仮想世界の対応する位置に表す。具体的には、センサ22が入場者の位置を追跡している場合は、入場者の移動に応じて移動するオブジェクトを表す。このとき空間構築部60は、センサ22による追跡結果に基づき、入場者の顔や身体の向きを特定し、それによって推測される進行方向を、当該オブジェクトに表してもよい。例えばオブジェクトに、進行方向を示す図形を付加してもよいし、オブジェクトの顔として進行方向を表現してもよい。空間構築部60は、入場者のそれまでの移動の軌跡に基づき、直後の進行方向を予測しオブジェクトに反映させてもよい。
あるいは空間構築部60は、滞在範囲に対する入場者の出入りが入力装置24またはセンサ22からのデータにより検出される場合は、入場者が滞在範囲に存在している期間において、当該滞在範囲を示すオブジェクトを表す。画像データ記憶部62は図5のメインメモリ226などで実現され、空間構築部60が構築する仮想世界やプレイヤのオブジェクト、入場者のオブジェクトなどの3次元モデルを格納する。
画像生成部54は図5のCPU222、GPU224、メインメモリ226などで実現され、視点情報取得部52が取得した各プレイヤの視点に対応する視野で、仮想世界を表した表示画像を所定のレートで生成する。すなわち各プレイヤの視点に対応するようにビュースクリーンを設定し、空間構築部60が構築した仮想世界を、当該ビュースクリーンに射影することで表示画像とする。ステレオ画像により立体視を実現する場合、画像生成部54は、左右の眼のそれぞれに対しビュースクリーンを設定することにより、左目用、右目用の画像を生成する。
出力部56は、図5のCPU222、メインメモリ226、出力部236などで構成され、画像生成部54が生成した表示画像のデータを、ヘッドマウントディスプレイ100に所定のレートで送出する。画像生成部54が、立体視のためステレオ画像を生成した場合、出力部56はそれらを左右につなげた画像を表示画像として生成し出力する。レンズを介して表示画像を鑑賞する構成のヘッドマウントディスプレイ100の場合、出力部56は、当該レンズによる歪みを考慮した補正を表示画像に施す。
図7は、入場者の存在に応じて空間構築部60が仮想世界に与える変化を例示している。(a)は入場者がプレイエリアにいない場合の実空間とそれに対応する仮想世界を示している。実空間であるプレイエリア20において、プレイヤ10が存在している。これに対し空間構築部60が構築する仮想世界30aには、プレイヤ10のそれぞれを表すオブジェクト32が、対応する位置関係で配置される。
空間構築部60は、オブジェクト32をプレイヤ10の動きに応じて動かす。仮想世界30aにはそのほか、プレイヤ以外のキャラクタのオブジェクト34などを適宜配置する。そのような状況において、(b)に示すように入場者16がプレイエリア20に入ったとする。入場者16の動きは、センサ22により追跡される。すると空間構築部60は、入場者16の動きに応じて動くオブジェクト36を仮想世界30bに出現させる。
入場者16が、超音波などを発生させる装置を身体の前面や頭部の前面に装着することにより進行方向を推測できるため、空間構築部60は入場者のオブジェクト36に、当該進行方向を表す方向オブジェクト38を付加する。上述のとおり進行方向は移動の軌跡に基づき推測してもよい。またこの例で方向オブジェクト38は、移動方向を示す矢印の形状を有するが、プレイヤが方向を認識できればその形状は限定されない。また入場者やプレイヤのオブジェクトの形状も特に限定されない。入場者のオブジェクト36を人型とする場合、その顔の向きによって進行方向を表してもよい。
図8は、図7で示した仮想世界を、画像生成部54があるプレイヤからの視野で表した表示画像の例を示している。(a)は図7の(a)で示したように、入場者がプレイエリアに存在しない状態であり、仮想世界には他のプレイヤのオブジェクト32が見えている。(b)は図7の(b)で示したように、入場者がプレイエリアに存在している状態であり、他のプレイヤのオブジェクト32とともに入場者のオブジェクト36も見えている。このような画像を表示することで、プレイヤは入場者がいる方向やその進行方向を直感的に把握でき、姿の見えない存在に違和感を持ったり衝突したりすることがなくなる。また仮想世界の一部として認識されるため、没入感が削がれることがない。
図9は、入場者の存在に応じて空間構築部60が仮想世界に与える変化の別の例を示している。(a)は入場者がプレイエリアにいない場合の実空間とそれに対応する仮想世界を示している。実空間であるプレイエリア20において、プレイヤ10が存在している。この例のプレイエリア20には、入場者の滞在範囲28がマーカーやテープなどにより示されている。これに対し空間構築部60が構築する仮想世界40aには、図7の(a)と同様、プレイヤ10のそれぞれを表すオブジェクト32やプレイヤ以外のキャラクタのオブジェクト34が配置される。
この場合も空間構築部60は、オブジェクト32をプレイヤ10の動きに応じて動かす。ただし図示するように、入場者が存在しない状態では、仮想世界40aには滞在範囲28も存在しない。そのような状況において、(b)に示すように入場者16が滞在範囲28に入り、入力装置24を操作するなどしてその状況が検知されると、空間構築部60は、滞在範囲28に対応する領域を示すオブジェクト42を仮想世界40bに出現させる。図示する例でオブジェクト42は領域を囲う柵の形状を有するが、プレイヤが進入できないことを認識できればその形状は限定されない。
図10は、図9で示した仮想世界を、画像生成部54があるプレイヤからの視野で表した表示画像の例を示している。(a)は図9の(a)で示したように、入場者がプレイエリアにいない状態であり、仮想世界には他のプレイヤのオブジェクト32が見えている。一方、この画像では滞在範囲は視認されない。なお入場者がプレイエリアに存在しても滞在範囲に入っていなければ、同様の画像を表示してよい。あるいはセンサ22による追跡結果に基づき、図8の(b)のように、入場者に対応して動くオブジェクト36を表してもよい。
(b)は図9の(b)で示したように、入場者が滞在範囲に入っている状態であり、他のプレイヤのオブジェクト32とともに、滞在範囲に対応する領域を示すオブジェクト42も見えている。このような画像を表示することで、プレイヤは入ってはいけない領域を直感的に把握でき、姿の見えない存在に違和感を持ったり衝突したりすることがなくなる。またこの場合も、仮想世界の一部として認識されるため、没入感が削がれることがない。
次に、以上の構成によって実現できる画像生成装置200の動作について説明する。図11は、本実施の形態における画像生成装置200が表示画像を生成し、ヘッドマウントディスプレイ100に表示させる処理手順を示すフローチャートである。このフローチャートは、プレイヤがヘッドマウントディスプレイ100を装着し、画像生成装置200がヘッドマウントディスプレイ100およびセンサ22、あるいは入力装置24と通信を確立した状態で開始される。ここでヘッドマウントディスプレイ100は、モーションセンサの計測値などを画像生成装置200に送信している。
そして空間構築部60は、表示対象の仮想世界の生成を開始する(S10)。プレイヤが複数の場合、この仮想世界にはプレイヤのオブジェクトも含まれる。以後、空間構築部60は、図示する各処理ステップと並行して、プレイヤの位置に応じたオブジェクトの移動処理を実施する。プレイヤの動作に対応するようにオブジェクトを動作させてもよい。この際、追跡処理上でのプレイヤの姿勢が正常範囲から逸脱した時点で、空間構築部60は対応するオブジェクトの姿勢を直前の状態に固定して半透明化するなどの画像効果を施し、正常範囲の姿勢が特定できたらオブジェクトも元に戻す。
プレイエリアまたは滞在範囲へ入場者が入ったことが検出されなければ(S12のY)、視点情報取得部52が各プレイヤの視点情報を取得し(S16)、画像生成部54がそれに対応する視野で仮想世界を表した表示画像を生成することにより、出力部56から表示画像のデータが出力される(S18)。これが各プレイヤのヘッドマウントディスプレイ100に表示されることにより、図8の(a)あるいは図10の(a)に示したような仮想世界が視認される。
入場者が存在せず(S20のN)、画像表示を終了させる必要が生じない限りは(S26のN)、各プレイヤの視点での表示画像の生成、出力を継続する(S12のN、S16、S18)。プレイエリアまたは滞在範囲へ入場者が入ったことが検出されたら(S12のY)、空間構築部60は当該入場者の存在を象徴するオブジェクトを仮想世界に追加する(S14)。
具体的には、入場者の位置を追跡している場合は、その動きを反映させるオブジェクトを追加する。入場者が滞在範囲へ入ったことが検出されたら、滞在範囲に対応する領域を示すオブジェクトを追加する。この状態で、視点情報取得部52が各プレイヤの視点情報を取得し(S16)、画像生成部54がそれに対応する表示画像を生成することにより、出力部56から表示画像のデータが出力される(S18)。
これが各プレイヤのヘッドマウントディスプレイ100に表示されることにより、図8の(b)あるいは図10の(b)に示したように、入場者の存在が視認される。入場者が退場せず(S20のN)、画像表示を終了させる必要が生じない限りは(S26のN)、プレイヤの視点での表示画像の生成、出力を継続する(S12のN、S16、S18)。ただし新たな入場者がプレイエリアに入ったり、別の滞在範囲に入ったりした場合は(S12のY)、その存在を象徴するオブジェクトを仮想世界にさらに追加する(S14)。
一方、プレイエリアや滞在範囲に入っていた入場者が退場したことが検出されたら(S20のY)、空間構築部60は当該入場者の存在を表すオブジェクトを仮想世界から除去する(S24)。画像表示を終了させる必要が生じない限り(S26のN)、S12からS24までの処理を、適宜処理を分岐させながら繰り返し、画像表示を終了させる必要が生じたら全ての処理を終了する(S26のY)。
本実施の形態における滞在範囲は、入場者のみならずプレイヤの待避場所としても利用できる。すなわちプレイの途中で体調を崩したり疲労を感じたりしたプレイヤが、他のプレイヤに干渉されずに待避できる場所として利用できる。上述のとおり通常状態において、プレイヤにはプレイエリアに示された滞在範囲は視認されないため、空間構築部60または画像生成部54は、当該プレイヤから見て滞在範囲の方向を示す図形を、仮想世界または表示画像に表す。
図12は、本実施の形態で設定する滞在範囲をプレイヤの待避場所として利用する場合に、画像生成部54が生成する表示画像の例を示している。(a)は、滞在範囲に待避したいプレイヤのヘッドマウントディスプレイ100に表示される画像を示している。待避したい状況となったとき、当該プレイヤは、自らが保持する図示しない入力装置、または頭部のジェスチャなどによってヘッドマウントディスプレイ100を介して、その旨の入力操作を行う。これに応じて画像生成部54は、当該プレイヤのヘッドマウントディスプレイ100に表示させる画像に、滞在範囲へ誘導する図形44を表す。
この例で図形44は、滞在範囲への方向を示す矢印の形状を有するが、プレイヤが方向を認識できればその形状は限定されない。図形44は、空間構築部60が仮想世界に表してもよいし、画像生成部54が表示画像に重畳表示させてもよい。プレイヤが図形44に従って移動し、滞在範囲入ったことは、プレイヤ位置情報取得部50により検出される。この際、空間構築部60は入場者の場合と同様に、滞在範囲に対応する領域を示すオブジェクトを仮想世界に出現させる。
(b)はこの状況において、他のプレイヤのヘッドマウントディスプレイ100に表示される画像を示している。この場合も図10の(b)と同様、滞在範囲に対応する領域を示すオブジェクト42が表示される。これにより、プレイヤは入れない領域を直感的に把握でき、待避したプレイヤとの干渉を避けることができる。なお待避したプレイヤのヘッドマウントディスプレイ100に表示させる画像には、滞在範囲に入ったタイミングで所定の変化を与えることにより、当該プレイヤにその旨を通知する。
その後、必要に応じて入場者が同じ滞在範囲に入り、待避したプレイヤと退場するなどした際、プレイヤ位置情報取得部50または入場者情報取得部58がそれを検出すれば、空間構築部60によりオブジェクト42は除去され通常の状態に戻る。あるいは待避したプレイヤの問題が解決すれば、当該プレイヤは滞在範囲から再びプレイに戻ることもできる。この場合も空間構築部60は、プレイヤが滞在範囲から出たタイミングで、仮想世界からオブジェクト42を除去する。
以上述べた本実施の形態によれば、ヘッドマウントディスプレイを用いて仮想世界を動きまわるフリーローム展示において、プレイヤ以外の者がプレイエリアに入ったことを検出し、プレイヤのヘッドマウントディスプレイに表示させる画像にその存在を反映する。具体的には入場者にセンシング可能な装置を装着させ、それをセンサで検出することにより位置を追跡する。この場合、当該入場者を表すオブジェクトを仮想世界に登場させる。
あるいは、プレイエリアに専用の滞在範囲を設定しておき、入場者などがそこに入った段階で、入力装置を介するなどしてその旨を検知する。この場合、当該滞在範囲に入場者が存在している期間、滞在範囲に対応する領域を示すオブジェクトを出現させる。いずれの場合も、仮想世界のみが見えているプレイヤであっても、入場者の存在を直感的に把握でき、その気配に違和感を持ったり衝突したりするのを防止できる。
また、そのような突発的な事象であっても仮想世界の一部として認識できるため、没入感を損ねることなくプレイを続行できる。さらにプレイの途中で何らかの問題が生じたプレイヤを滞在範囲に誘導し、同様にオブジェクトを出現させれば、他のプレイヤとの干渉なく容易に問題に対処できるようになる。また、入場者によりプレイヤの検出結果が影響を受け、計算上の姿勢が異常であることを検出したら、対応するオブジェクトに当該姿勢を反映させないようにする。これにより入場者の存在がプレイに及ぼす影響を最小限に抑えることができる。
以上、本発明を実施の形態をもとに説明した。実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
22 センサ、 24 入力装置、 50 プレイヤ位置情報取得部、 52 視点情報取得部、 54 画像生成部、 56 出力部、 58 入場者情報取得部、 60 空間構築部、 62 画像データ記憶部、 100 ヘッドマウントディスプレイ、 200 画像生成装置、 222 CPU、 224 GPU、 226 メインメモリ、 236 出力部、 238 入力部。

Claims (10)

  1. ヘッドマウントディスプレイに表示させる仮想世界を構築する空間構築部と、
    前記ヘッドマウントディスプレイを装着したプレイヤの頭部の位置および姿勢に基づき、当該プレイヤの視点に対応する視野で前記仮想世界を表した表示画像を生成し前記ヘッドマウントディスプレイに表示させる画像生成部と、
    前記プレイヤが移動可能な空間における、ヘッドマウントディスプレイを装着しない入場者の存在に係る情報を取得し、前記空間に設定された滞在範囲に対する前記入場者の出入りを検出する入場者情報取得部と、
    を備え、
    前記空間構築部は、前記滞在範囲に前記入場者が存在している期間、当該存在を象徴するオブジェクトとして、当該滞在範囲に対応する領域を示すオブジェクトを前記仮想世界の対応する位置に表すことを特徴とする画像生成装置。
  2. 前記入場者情報取得部は、前記入場者が装着する装置から発生する超音波または所定波長帯の光を検出するセンサの検出結果に基づき、前記入場者の位置を取得することを特徴とする請求項1に記載の画像生成装置。
  3. 前記入場者情報取得部は、前記入場者の進行方向を予測し、
    前記空間構築部は、前記存在を象徴するオブジェクトとして、前記入場者の移動に応じて移動するオブジェクトを表し、当該オブジェクトに前記進行方向を表すことを特徴とする請求項1または2に記載の画像生成装置。
  4. 前記入場者情報取得部は、前記滞在範囲に対する前記入場者の出入りを、前記入場者または前記空間外にいる者が操作する入力装置を介して検出することを特徴とする請求項1から3のいずれかに記載の画像生成装置。
  5. 前記画像生成部は、前記プレイヤが待避したい旨の入力操作を行ったとき、当該プレイヤが装着するヘッドマウントディスプレイの表示画像に、前記滞在範囲へ誘導する図形を表し、
    前記空間構築部は、前記滞在範囲に前記プレイヤが存在している期間も、当該滞在範囲に対応する領域を示すオブジェクトを表すことを特徴とする請求項1から4のいずれかに記載の画像生成装置。
  6. プレイヤの位置および姿勢に係る情報を取得するとともに、取得した姿勢があらかじめ規定された正常範囲を逸脱した状態を検出するプレイヤ位置情報取得部をさらに備え、
    前記空間構築部は、プレイヤ位置情報取得部が取得した前記プレイヤの姿勢を反映させたオブジェクトを前記仮想世界の対応する位置に表すとともに、当該姿勢が前記正常範囲を逸脱した状態にあるとき、前記オブジェクトを固定したうえで態様を変化させることを特徴とする請求項1からのいずれかに記載の画像生成装置。
  7. 請求項1からのいずれかに記載の画像生成装置と、
    当該画像生成装置から出力された画像を表示するヘッドマウントディスプレイと、
    前記入場者を検出し前記画像生成装置にそのデータを送信するセンサと、
    を含むことを特徴とする画像表示システム。
  8. 請求項1から5のいずれかに記載の画像生成装置と、
    当該画像生成装置から出力された画像を表示するヘッドマウントディスプレイと、
    前記入場者が前記滞在範囲に出入りしたことを表す操作を受け付け、前記画像生成装置にその情報を送信する入力装置と、
    を含むことを特徴とする画像表示システム。
  9. ヘッドマウントディスプレイに表示させる仮想世界を構築するステップと、
    前記ヘッドマウントディスプレイを装着したプレイヤの頭部の位置および姿勢に基づき、当該プレイヤの視点に対応する視野で前記仮想世界を表した表示画像を生成し前記ヘッドマウントディスプレイに表示させるステップと、
    前記プレイヤが移動可能な空間における、ヘッドマウントディスプレイを装着しない入場者の存在に係る情報を取得し、前記空間に設定された滞在範囲に対する前記入場者の出入りを検出するステップと、
    前記滞在範囲に前記入場者が存在している期間、当該存在を象徴するオブジェクトとして、当該滞在範囲に対応する領域を示すオブジェクトを前記仮想世界の対応する位置に表すステップと、
    を含むことを特徴とする、画像生成装置による情報提示方法。
  10. ヘッドマウントディスプレイに表示させる仮想世界を構築する機能と、
    前記ヘッドマウントディスプレイを装着したプレイヤの頭部の位置および姿勢に基づき、当該プレイヤの視点に対応する視野で前記仮想世界を表した表示画像を生成し前記ヘッドマウントディスプレイに表示させる機能と、
    前記プレイヤが移動可能な空間における、ヘッドマウントディスプレイを装着しない入場者の存在に係る情報を取得し、前記空間に設定された滞在範囲に対する前記入場者の出入りを検出する機能と、
    前記滞在範囲に前記入場者が存在している期間、当該存在を象徴するオブジェクトとして、当該滞在範囲に対応する領域を示すオブジェクトを前記仮想世界の対応する位置に表す機能と、
    をコンピュータに実現させることを特徴とするコンピュータプログラム。
JP2019082184A 2019-04-23 2019-04-23 画像生成装置、画像表示システム、および情報提示方法 Active JP7351638B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2019082184A JP7351638B2 (ja) 2019-04-23 2019-04-23 画像生成装置、画像表示システム、および情報提示方法
US16/843,186 US11460697B2 (en) 2019-04-23 2020-04-08 Image generation device, image display system, and information presentation method
US17/879,271 US11714281B2 (en) 2019-04-23 2022-08-02 Image generation device, image display system, and information presentation method
US18/210,518 US20230324685A1 (en) 2019-04-23 2023-06-15 Image generation device, image display system, and information presentation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019082184A JP7351638B2 (ja) 2019-04-23 2019-04-23 画像生成装置、画像表示システム、および情報提示方法

Publications (2)

Publication Number Publication Date
JP2020181264A JP2020181264A (ja) 2020-11-05
JP7351638B2 true JP7351638B2 (ja) 2023-09-27

Family

ID=72916507

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019082184A Active JP7351638B2 (ja) 2019-04-23 2019-04-23 画像生成装置、画像表示システム、および情報提示方法

Country Status (2)

Country Link
US (3) US11460697B2 (ja)
JP (1) JP7351638B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11622100B2 (en) * 2021-02-17 2023-04-04 flexxCOACH VR 360-degree virtual-reality system for dynamic events
JP7160393B1 (ja) * 2021-04-22 2022-10-25 博雄 村田 情報表示装置及び情報表示システム並びに情報表示方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018081644A (ja) 2016-11-18 2018-05-24 株式会社バンダイナムコエンターテインメント シミュレーションシステム及びプログラム
JP2018109835A (ja) 2016-12-28 2018-07-12 株式会社バンダイナムコエンターテインメント シミュレーションシステム及びプログラム
WO2019009163A1 (ja) 2017-07-04 2019-01-10 株式会社ソニー・インタラクティブエンタテインメント 情報処理システム、プレイヤ側装置、制御方法、及びプログラム

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140125698A1 (en) * 2012-11-05 2014-05-08 Stephen Latta Mixed-reality arena
CN104937641A (zh) * 2013-02-01 2015-09-23 索尼公司 信息处理装置、客户端装置、信息处理方法以及程序
EP2953099B1 (en) * 2013-02-01 2019-02-13 Sony Corporation Information processing device, terminal device, information processing method, and programme
US20140280506A1 (en) * 2013-03-15 2014-09-18 John Cronin Virtual reality enhanced through browser connections
US20140267581A1 (en) * 2013-03-15 2014-09-18 John Cronin Real time virtual reality leveraging web cams and ip cams and web cam and ip cam networks
US9630105B2 (en) * 2013-09-30 2017-04-25 Sony Interactive Entertainment Inc. Camera based safety mechanisms for users of head mounted displays
US10852838B2 (en) * 2014-06-14 2020-12-01 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
US10286308B2 (en) * 2014-11-10 2019-05-14 Valve Corporation Controller visualization in virtual and augmented reality environments
US9868211B2 (en) * 2015-04-09 2018-01-16 Irobot Corporation Restricting movement of a mobile robot
US20160330522A1 (en) * 2015-05-06 2016-11-10 Echostar Technologies L.L.C. Apparatus, systems and methods for a content commentary community
JP6709633B2 (ja) * 2016-02-17 2020-06-17 株式会社バンダイナムコエンターテインメント シミュレーションシステム及びゲームシステム
US10657701B2 (en) * 2016-06-30 2020-05-19 Sony Interactive Entertainment Inc. Dynamic entering and leaving of virtual-reality environments navigated by different HMD users
EP3550418A4 (en) * 2016-11-30 2020-05-27 Gree, Inc. APPLICATION CONTROL PROGRAM, APPLICATION CONTROL METHOD, AND APPLICATION CONTROL SYSTEM
US11537264B2 (en) * 2018-02-09 2022-12-27 Sony Interactive Entertainment LLC Methods and systems for providing shortcuts for fast load when moving between scenes in virtual reality
US10964053B2 (en) * 2018-07-02 2021-03-30 Microsoft Technology Licensing, Llc Device pose estimation using 3D line clouds
US11562539B2 (en) * 2018-09-25 2023-01-24 Universal City Studios Llc Modular augmented and virtual reality ride attraction
US11008303B2 (en) * 2019-01-30 2021-05-18 Insilico Medicine Ip Limited TLR 9 inhibitors

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018081644A (ja) 2016-11-18 2018-05-24 株式会社バンダイナムコエンターテインメント シミュレーションシステム及びプログラム
JP2018109835A (ja) 2016-12-28 2018-07-12 株式会社バンダイナムコエンターテインメント シミュレーションシステム及びプログラム
WO2019009163A1 (ja) 2017-07-04 2019-01-10 株式会社ソニー・インタラクティブエンタテインメント 情報処理システム、プレイヤ側装置、制御方法、及びプログラム

Also Published As

Publication number Publication date
US11714281B2 (en) 2023-08-01
US11460697B2 (en) 2022-10-04
US20230324685A1 (en) 2023-10-12
US20220382052A1 (en) 2022-12-01
JP2020181264A (ja) 2020-11-05
US20200341275A1 (en) 2020-10-29

Similar Documents

Publication Publication Date Title
JP7164630B2 (ja) 予測サッカード着地点に基づく動的グラフィックスレンダリング
JP7181316B2 (ja) Hmd環境での高速中心窩レンダリングのための予測及びgpuに対する最新の更新を伴う視線追跡
JP6977134B2 (ja) 頭部装着ディスプレイにおける仮想現実(vr)コンテンツの視野(fov)絞り
CN107233732B (zh) 模拟控制装置
CN105359063A (zh) 利用追踪的头戴式显示器
GB2376397A (en) Virtual or augmented reality
US20230324685A1 (en) Image generation device, image display system, and information presentation method
CN107233731B (zh) 模拟控制装置
WO2020218131A1 (ja) 画像生成装置および情報提示方法
JP2024050696A (ja) 情報処理装置、ユーザガイド提示方法、およびヘッドマウントディスプレイ
CN103785169A (zh) 混合现实的竞技场
JP6625467B2 (ja) シミュレーション制御装置及びシミュレーション制御プログラム
JP6781324B2 (ja) シミュレーション制御装置及びシミュレーション制御プログラム
JP7458779B2 (ja) プログラム、方法および情報処理装置
JP6821832B2 (ja) シミュレーション制御装置及びシミュレーション制御プログラム
JP2017182845A (ja) シミュレーション制御装置及びシミュレーション制御プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230529

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230912

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230914

R150 Certificate of patent or registration of utility model

Ref document number: 7351638

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150