JP6672047B2 - Program and computer system - Google Patents
Program and computer system Download PDFInfo
- Publication number
- JP6672047B2 JP6672047B2 JP2016078395A JP2016078395A JP6672047B2 JP 6672047 B2 JP6672047 B2 JP 6672047B2 JP 2016078395 A JP2016078395 A JP 2016078395A JP 2016078395 A JP2016078395 A JP 2016078395A JP 6672047 B2 JP6672047 B2 JP 6672047B2
- Authority
- JP
- Japan
- Prior art keywords
- virtual
- virtual object
- arrival
- posture
- reaching
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000033001 locomotion Effects 0.000 claims description 124
- 230000008859 change Effects 0.000 claims description 54
- 238000013459 approach Methods 0.000 claims description 44
- 230000004913 activation Effects 0.000 claims description 16
- 230000007423 decrease Effects 0.000 claims description 4
- 230000036544 posture Effects 0.000 description 68
- 238000012937 correction Methods 0.000 description 46
- 230000006870 function Effects 0.000 description 36
- 238000012545 processing Methods 0.000 description 30
- 238000000034 method Methods 0.000 description 24
- 238000004891 communication Methods 0.000 description 21
- 238000010586 diagram Methods 0.000 description 19
- 230000008569 process Effects 0.000 description 14
- 238000012559 user support system Methods 0.000 description 14
- 210000003128 head Anatomy 0.000 description 13
- 238000009795 derivation Methods 0.000 description 11
- 238000005516 engineering process Methods 0.000 description 8
- 238000007726 management method Methods 0.000 description 8
- 239000000463 material Substances 0.000 description 7
- 230000015654 memory Effects 0.000 description 6
- 230000001133 acceleration Effects 0.000 description 5
- 238000007654 immersion Methods 0.000 description 5
- 230000001681 protective effect Effects 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 238000011156 evaluation Methods 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 230000001771 impaired effect Effects 0.000 description 3
- 230000005236 sound signal Effects 0.000 description 3
- 210000000707 wrist Anatomy 0.000 description 3
- 230000002159 abnormal effect Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 210000005069 ears Anatomy 0.000 description 2
- 238000003780 insertion Methods 0.000 description 2
- 230000037431 insertion Effects 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 210000001015 abdomen Anatomy 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 210000003811 finger Anatomy 0.000 description 1
- 210000001061 forehead Anatomy 0.000 description 1
- 210000001503 joint Anatomy 0.000 description 1
- 210000003127 knee Anatomy 0.000 description 1
- 210000002414 leg Anatomy 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 230000001225 therapeutic effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Processing Or Creating Images (AREA)
- Position Input By Displaying (AREA)
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
Description
本発明は、コンピュータシステムに、仮想現実空間と実空間とを対応づけて、ユーザが装着するHMD(ヘッドマウントディスプレイ)に仮想現実空間の画像を表示させるためのプログラム等に関する。 The present invention relates to a program for displaying an image of a virtual reality space on an HMD (head-mounted display) worn by a user by associating a virtual reality space and a real space with a computer system.
ユーザに立体視可能な映像とともに立体音響を提供して仮想現実空間に居るかのような体感をもたらす所謂VR(Virtual Reality)技術が公知である。 2. Description of the Related Art A so-called VR (Virtual Reality) technique that provides a user with a stereoscopic sound together with a stereoscopically visible image to give a user a sense of being in a virtual reality space is known.
さて、VRを実現するに当たって、HMDやプレーヤが手に持ったコントローラ(或いは手)の位置及び姿勢は常にトラッキングされている。この結果、HMDの位置及び姿勢は、仮想現実空間における仮想プレーヤの頭部の位置及び姿勢の追従に利用され、コントローラの位置及び姿勢は仮想プレーヤの手の位置及び姿勢の追従に利用される。そして、VR体験中、実空間のモノとそれに対応する仮想空間のモノとに追従ズレが生じないことが理想とされる。 In realizing VR, the position and orientation of the controller (or hand) held by the HMD or the player are always tracked. As a result, the position and posture of the HMD are used for tracking the position and posture of the head of the virtual player in the virtual reality space, and the position and posture of the controller are used for tracking the position and posture of the hand of the virtual player. Ideally, during the VR experience, there is no displacement between the real space object and the corresponding virtual space object.
しかし、実際には様々な理由によりトラッキングの誤差が生じてしまう。そして、VR体験においては、実空間のモノとそれに対応する仮想空間のモノとのズレは、リアリティを重んじるVR体験において大きな問題となる。 However, tracking errors actually occur for various reasons. In the VR experience, a gap between a real space thing and a corresponding virtual space thing becomes a serious problem in a VR experience that values realism.
例えば、恋人とのデートをテーマとしたVR体験において、口を開いて待っている恋人の口元へケーキを運んで食べさせるシーンがあるとする。恋人への心象を左右する重要なシーンであるが、要求されているのはケーキを口元へ運ぶ至って簡単な動作である。しかし、トラッキングのズレが生じていると、移動対象(ケーキ)を移動目標位置(恋人の口元)へ、正しい姿勢(口に入りやすいケーキの向き)となるように移動させるために不自然に手首を捻らなければならず簡単なはずの動作が困難となる。この結果、それまで気にならなかったズレがことさら目立って感じられるようになり、それ以降のVR体験のリアリティを大きく損ねることになる。また、当該シーンがVR体験のプレイ評価に係るシーンであれば、当然プレイ評価も損なわれてしまうかもしれない。 For example, suppose that in a VR experience on the theme of a date with a lover, there is a scene in which a mouth is opened and a cake is carried to the mouth of the waiting lover and eaten. It is an important scene that affects the image of the lover, but what is required is a simple operation that brings the cake to the mouth. However, if a tracking error has occurred, the wrist is moved unnaturally to move the moving object (cake) to the movement target position (mouth of the lover) so as to have a correct posture (the direction of the cake that is easy to enter the mouth). Must be twisted, and the operation that should be simple becomes difficult. As a result, the gap that has not been noticed until then becomes more noticeable, which greatly impairs the reality of the VR experience thereafter. Further, if the scene is a scene related to the play evaluation of the VR experience, the play evaluation may naturally be impaired.
これはほんの一例に過ぎない。一時的とはいえ、VR体験中のユーザ(プレーヤ)に、トラッキングのズレを感じさせる場面が生じると、いかにリアルであるかを大切にするVR体験にとっては、そのVR体験の評価を大きく損なう原因となってしまうだろう。 This is just one example. Even if it is temporary, if a situation occurs in which the user (player) who is experiencing the VR experience shifts in tracking, a VR experience that values how realistic the VR experience will greatly impair the evaluation of the VR experience Would be.
本発明は、VRにおけるユーザサポートを向上するための技術を提供すること、換言すると、VRにおける没入感を阻害させない技術を提供することを目的として考案されたものである。 The present invention has been devised for the purpose of providing a technology for improving user support in a VR, in other words, providing a technology that does not hinder immersion in the VR.
上述した課題を解決するための第1の発明は、コンピュータシステムに、仮想現実空間と実空間とを対応づけて、ユーザが装着するHMD(ヘッドマウントディスプレイ)に前記仮想現実空間の画像を表示させるためのプログラムであって、
前記ユーザの身体部位又は前記ユーザが具備するコントローラを基準体として前記実空間内の前記基準体をトラッキングする基準体トラッキング手段(例えば、図10の処理部200、ゲーム進行制御部210、コントローラトラッキング部216、図11のコントローラトラッキングデータ707、図16のステップS6)、
前記仮想現実空間において所与の仮想オブジェクト(例えば、図3の仮想ケーキ14)の位置及び姿勢を、前記基準体の位置及び姿勢に対応付けて追従させるように制御する追従制御手段(例えば、図10の処理部200、ゲーム進行制御部210、追従制御部218、図16のステップS38)、
前記仮想オブジェクトが前記仮想現実空間内の所与の位置又は所与のエリア(以下、包括して「到達位置」という;例えば、図7の移動目標位置Pm)へ到達した際の到達姿勢を少なくとも含む到達状態を設定する到達状態設定手段(例えば、図10の処理部200、ゲーム進行制御部210、到達状態設定部222、図14の理想状態定義データ570、図17のステップS64)、
前記仮想オブジェクトの前記到達位置への接近に応じて、前記仮想オブジェクトの姿勢を、前記追従制御手段により追従されている姿勢(以下「追従姿勢」という)から前記到達姿勢に変更する制御を行う変更制御手段(例えば、図10の処理部200、ゲーム進行制御部210、変更制御部224、図17のステップS66〜S86)、
として前記コンピュータシステムを機能させるためのプログラムである。
According to a first aspect of the invention for solving the above-described problem, a virtual reality space is associated with a real space in a computer system, and an image of the virtual reality space is displayed on an HMD (head mounted display) worn by a user. Program for
Reference body tracking means for tracking the reference body in the real space using the body part of the user or a controller provided by the user as a reference body (for example, the
Follow-up control means (for example, FIG. 3) that controls the position and posture of a given virtual object (for example, the
At least the arrival posture when the virtual object reaches a given position or a given area in the virtual reality space (hereinafter, collectively referred to as an “arrival position”; for example, a movement target position Pm in FIG. 7). Reaching state setting means for setting the reaching state including (for example, the
A change that performs control for changing the posture of the virtual object from the posture being followed by the following control means (hereinafter, referred to as “following posture”) to the reaching posture in accordance with the approach of the virtual object to the arrival position. Control means (for example,
As a program for causing the computer system to function.
第1の発明によれば、基準体に追従制御される仮想オブジェクトが到達位置に接近するのに応じて、その姿勢を、設定された到達姿勢に自動で変更することができる。よって、VRにおけるユーザサポートを向上させること、換言するとVRにおける没入感を阻害させない技術を提供することができる。 According to the first aspect, as the virtual object controlled to follow the reference body approaches the arrival position, the posture can be automatically changed to the set arrival posture. Therefore, it is possible to improve the user support in the VR, in other words, to provide a technology that does not hinder the sense of immersion in the VR.
第2の発明は、前記到達状態設定手段が、前記到達位置に向かう前記仮想オブジェクトの方位別(例えば、図6の理想状態設定区域30)に前記到達状態を対応付けて設定し、前記変更制御手段は、前記仮想オブジェクトが前記到達位置へ接近する方位と、前記方位別の前記到達状態とに基づいて、変更する制御を行う第1の発明のプログラムである。 According to a second aspect, the arrival state setting means sets the arrival state in association with each direction (for example, the ideal state setting area 30 in FIG. 6) of the virtual object heading toward the arrival position, and sets the change control. The means is a program according to a first aspect of the present invention, wherein control is performed to change the virtual object based on the direction in which the virtual object approaches the arrival position and the arrival state for each direction.
第2の発明によれば、仮想オブジェクトが到達位置へ向けてどの方向から接近してくるかに応じて細かく到達状態を設定することができる。よって、仮想オブジェクトの到達状態をより自然に見せることができるようになる。 According to the second aspect, the arrival state can be finely set according to the direction from which the virtual object approaches the arrival position. Therefore, the arrival state of the virtual object can be made to look more natural.
第3の発明は、前記変更制御手段が、前記仮想オブジェクトから前記到達位置までの距離が所与の変更制御発動条件(例えば、図9の補正制御発動条件距離Lc)を満たした場合に前記変更の制御を発動する、第1又は第2の発明のプログラムである。 According to a third aspect, the change control means performs the change when a distance from the virtual object to the arrival position satisfies a given change control activation condition (for example, a correction control activation condition distance Lc in FIG. 9). Is a program according to the first or second aspect of the present invention, which activates the control of the invention.
第3の発明によれば、変更制御の影響を必要な場面に限定し、それ以外では基本的には基準体の動きに仮想オブジェクトをそのまま追従させることで、VR体験の操作感と、ユーザサポートとを上手く両立させることができる。 According to the third aspect, the effect of the change control is limited to a necessary scene, and in other cases, the virtual object basically follows the movement of the reference body as it is, so that the operational feeling of the VR experience and the user support Can be well balanced.
第4の発明は、前記変更制御発動条件を満たした後、前記仮想オブジェクトから前記到達位置までの距離が所与の近接条件を満たした場合に、自動的に前記仮想オブジェクトの位置を前記到達位置に移動させる自動移動制御手段(例えば、図19の自動移動制御部228、図21のステップS67、S69)、として前記コンピュータシステムを更に機能させるための第3の発明のプログラム。
In a fourth aspect, after the change control activation condition is satisfied, when the distance from the virtual object to the arrival position satisfies a given proximity condition, the position of the virtual object is automatically changed to the arrival position. A program according to a third invention for causing the computer system to further function as automatic movement control means (for example, the automatic
第4の発明によれば、ある程度仮想オブジェクトが到達位置に接近してからは自動で仮想オブジェクトを到達位置まで移動させることができる。 According to the fourth aspect, after the virtual object has approached the arrival position to some extent, the virtual object can be automatically moved to the arrival position.
第5の発明は、前記変更制御手段が、前記仮想オブジェクトから前記到達位置までの距離が短くなるに従って、前記仮想オブジェクトの姿勢を前記到達姿勢に近づけるように変更する、第1〜第4の何れか発明のプログラムである。 In a fifth aspect, the change control means changes the posture of the virtual object so as to approach the arrival posture as the distance from the virtual object to the arrival position decreases. Or the program of the invention.
第5の発明によれば、徐々に到達姿勢に近づけるように変更が行われるので、ユーザサポートの介入を円滑かつ自然に実現できる。 According to the fifth aspect, since the change is made so as to gradually approach the reaching posture, the intervention of the user support can be smoothly and naturally realized.
第6の発明は、前記到達状態には、前記仮想オブジェクトが前記到達位置に到達した際の到達時動作、及び/又は、到達時表示形態が含まれ、前記変更制御手段は、前記仮想オブジェクトから前記到達位置までの距離が短くなるに従って、前記仮想オブジェクトの状態を前記到達状態に近づけるように変更する、第5の発明のプログラムである。 In a sixth aspect, the arrival state includes an operation at the time of arrival of the virtual object at the arrival position and / or a display mode at the time of arrival. A program according to a fifth aspect of the present invention, wherein the state of the virtual object is changed so as to approach the arrival state as the distance to the arrival position decreases.
ここで言う「到達時動作」には、例えば、振動や拡縮、回転なども含めることができる。またここで言う「到達時表示形態」には、仮想オブジェクトの外観、表示サイズ、表示色、明度、透明度、を含めることができる。
第6の発明によれば、到達状態に到達時の動作や表示形態も設定できるようになるので、ユーザサポートを応用するシチュエーションを多様化できる。
The “operation at the time of arrival” referred to here may include, for example, vibration, enlargement / reduction, rotation, and the like. In addition, the “display mode at arrival” referred to here can include the appearance, display size, display color, brightness, and transparency of the virtual object.
According to the sixth aspect, the operation and the display form at the time of reaching the arrival state can be set, so that the situation to which the user support is applied can be diversified.
第7の発明は、前記仮想現実空間内の所与のキャラクタの所与の部位に、前記到達位置を設定する到達位置設定手段(例えば、図19の到達位置設定部220、図17のステップS60)、として前記コンピュータシステムを更に機能させるための第1〜第6の何れかの発明のプログラムである。
A seventh invention is an arrival position setting means (for example, an arrival
第7の発明によれば、ユーザが仮想現実空間に存在するキャラクタに仮想オブジェクトを近づけるといったシチュエーションへの応用が可能になる。 According to the seventh aspect, application to a situation where a user approaches a virtual object to a character existing in a virtual reality space becomes possible.
第8の発明は、前記到達状態設定手段が、前記キャラクタの前記部位の向きに応じて、前記到達姿勢を設定する、第7の発明のプログラムである。 An eighth invention is the program according to the seventh invention, wherein the reaching state setting means sets the reaching posture according to an orientation of the part of the character.
第8の発明によれば、到達位置が設定されたキャラクタの部位の向きに応じて到達姿勢を決定することができる。 According to the eighth aspect, the reaching posture can be determined according to the direction of the part of the character for which the reaching position is set.
第9の発明は、コンピュータシステムに、仮想現実空間と実空間とを対応づけて、ユーザが装着するHMD(ヘッドマウントディスプレイ)に前記仮想現実空間の画像を表示させるためのプログラムであって、前記ユーザの身体部位又は前記ユーザが具備するコントローラを基準体として前記実空間内の前記基準体をトラッキングする基準体トラッキング手段、前記仮想現実空間において所与の仮想オブジェクトの位置及び姿勢を、前記基準体の位置及び姿勢に対応付けて追従させるように制御する追従制御手段、前記仮想オブジェクトが前記仮想現実空間内の所与のキャラクタの所与の部位の位置(以下「到達位置」という)へ到達した際の前記仮想オブジェクトの表示形態を少なくとも含む到達状態を設定する到達状態設定手段、前記仮想オブジェクトの前記到達位置への接近に応じて、前記仮想オブジェクトの状態を前記到達状態に変更する制御を行う変更制御手段、として前記コンピュータシステムを機能させるためのプログラムである。 A ninth invention is a program for causing a computer system to associate a virtual reality space with a real space and display an image of the virtual reality space on an HMD (head-mounted display) worn by a user. A reference body tracking means for tracking the reference body in the real space using a body part of a user or a controller provided by the user as a reference body, and a position and orientation of a given virtual object in the virtual reality space; Tracking control means for controlling to follow in accordance with the position and posture of the virtual object, wherein the virtual object has reached a position of a given part of a given character in the virtual reality space (hereinafter, referred to as an “arrival position”) Arrival state setting means for setting an arrival state including at least a display form of the virtual object at the time of Depending on the approach to the arrival position of the object is a program for causing the computer system to the state of the virtual object change control means for performing control to change the arrival status, as.
第9の発明によれば、仮想オブジェクトの表示形態(表示モデル、表示サイズ、表示色、明度、透明度、を含む)を変更することによって、VRにおけるユーザサポートを向上するための技術を提供すること、換言すると、VRにおける没入感を阻害させない技術を提供できる。 According to the ninth aspect, there is provided a technique for improving user support in VR by changing a display mode (including a display model, a display size, a display color, brightness, and transparency) of a virtual object. In other words, it is possible to provide a technique that does not hinder the sense of immersion in VR.
具体的な例を挙げると、例えば、到達位置がエリアとして設定され、仮想オブジェクトの表示モデルが到達位置に近づいた場合、想定されるトラッキングズレを許容するほどの大きさを有する別の表示モデルに変更する。そして、仮想オブジェクトの到達位置への到達判定を、変更された表示モデルと、到達位置のエリアとのコリジョン判定で行うとすると、トラッキングズレが生じていてもトラッキングズレに起因する違和感をユーザに与えずに済ませることができる。 To give a specific example, for example, when the arrival position is set as an area, and the display model of the virtual object approaches the arrival position, another display model having a size large enough to allow an assumed tracking shift change. Then, when the arrival determination of the virtual object at the arrival position is performed by collision determination between the changed display model and the area of the arrival position, even if the tracking deviation occurs, the user may feel uncomfortable due to the tracking deviation. It can be done without
第10の発明は、前記仮想オブジェクトの前記到達位置への接近に応じて、前記キャラクタの位置及び/又は姿勢を制御するキャラクタ制御手段(例えば、図10のキャラクタ制御部226、図12のイベント対応設定データ530、イベント用動作533、図17のステップS102〜S104)、として前記コンピュータシステムを更に機能させるための第7〜第9の何れかの発明のプログラムである。
A tenth aspect of the present invention is a character control means (for example, a
第10の発明によれば、仮想オブジェクトの接近に応じて、到達位置が設定されたキャラクタの側の位置や姿勢も変化させることができる。よって、より複雑なシーンへの応用が可能になる。 According to the tenth aspect, the position and posture of the character on which the arrival position is set can be changed in accordance with the approach of the virtual object. Therefore, application to more complicated scenes becomes possible.
第11の発明は、前記キャラクタが、前記ユーザのアバターキャラクタである、第7〜第10の何れかの発明のプログラムである。 An eleventh invention is the program according to any one of the seventh to tenth inventions, wherein the character is an avatar character of the user.
第11の発明によれば、ユーザが仮想現実空間における自身に対して仮想オブジェクトを近づけるといったシチュエーションにもユーザサポートを応用できるようになる。 According to the eleventh aspect, the user support can be applied to the situation where the user moves the virtual object closer to the user in the virtual reality space.
第12の発明は、前記実空間内の前記HMDをトラッキングするHMDトラッキング手段(例えば、図10のHMDトラッキング部214、図16のステップS6)、前記HMDトラッキング手段によりトラッキングされた前記HMDの位置に基づいて、前記仮想現実空間における前記アバターキャラクタの前記所与の部位の位置を判定する手段(例えば、図10の追従制御部218、図15のアバターキャラクタ制御パラメータ値リスト720、図16のステップS8)、として前記コンピュータシステムを更に機能させるための第11の発明のプログラムである。
A twelfth invention is directed to an HMD tracking unit (for example, the
第12の発明によれば、アバターキャラクタの所与の部位の位置を判定できるようになるので、例えば到達位置をアバターキャラクタの一部に設定することも可能になる。 According to the twelfth aspect, the position of a given part of the avatar character can be determined. For example, it is possible to set the arrival position to a part of the avatar character.
第13の発明は、前記変更制御手段が、前記仮想オブジェクトの姿勢を、前記追従姿勢から前記到達姿勢に直ちに変更する、第1又は第2の発明のプログラムである。 A thirteenth invention is the program according to the first or second invention, wherein the change control means changes the posture of the virtual object from the following posture to the reached posture immediately.
第13の発明によれば、仮想オブジェクトの姿勢を追従姿勢から到達姿勢に直ちに変更することが可能となる。このため、例えば、注意喚起や警告といった利用方法に応用できるようになる。 According to the thirteenth aspect, it is possible to immediately change the posture of the virtual object from the following posture to the reached posture. Therefore, for example, it can be applied to usage methods such as alerting and warning.
第14の発明は、前記到達状態には、前記仮想オブジェクトが前記到達位置に到達した際の到達時動作、及び/又は、到達時表示形態が含まれ、前記変更制御手段は、前記仮想オブジェクトの姿勢の変更に合わせて、前記仮想オブジェクトの状態を前記到達状態に変更する、第13の発明のプログラムである。 In a fourteenth aspect, the reaching state includes an operation at the time of arrival of the virtual object at the arrival position and / or a display form at the time of arrival. A program according to a thirteenth invention, wherein a state of the virtual object is changed to the reached state in accordance with a change in posture.
第14の発明によれば、到達位置に到達した際の仮想オブジェクトの動作や表示形態も直ちに変更できるようになる。 According to the fourteenth aspect, the operation and display mode of the virtual object when reaching the arrival position can be changed immediately.
第15の発明は、仮想現実空間と実空間とを対応づけて、ユーザが装着するHMD(ヘッドマウントディスプレイ)に前記仮想現実空間の画像を表示する制御を行うコンピュータシステムであって、
前記ユーザの身体部位又は前記ユーザが具備するコントローラを基準体として前記実空間内の前記基準体をトラッキングする基準体トラッキング手段(例えば、図1のHMD6、コントローラ8、トラッキング用カメラ7、ゲーム制御装置1100、図10の処理部200、ゲーム進行制御部210、コントローラトラッキング部216、図11のコントローラトラッキングデータ707、図16のステップS6)と、
前記仮想現実空間において所与の仮想オブジェクトの位置及び姿勢を、前記基準体の位置及び姿勢に対応付けて追従させるように制御する追従制御手段(例えば、図1のゲーム制御装置1100、図10の処理部200、ゲーム進行制御部210、追従制御部218、図16のステップS38)と、
前記仮想オブジェクトが前記仮想現実空間内の所与の位置又は所与のエリア(以下、包括して「到達位置」という)へ到達した際の到達姿勢を少なくとも含む到達状態を設定する到達状態設定手段(例えば、図1のゲーム制御装置1100、図10の処理部200、ゲーム進行制御部210、到達状態設定部222、図14の理想状態定義データ570、図17のステップS64)と、
前記仮想オブジェクトの前記到達位置への接近に応じて、前記仮想オブジェクトの姿勢を、前記追従制御手段により追従されている姿勢(以下「追従姿勢」という)から前記到達姿勢に変更する制御を行う変更制御手段(例えば、図1のゲーム制御装置1100、図10の処理部200、ゲーム進行制御部210、変更制御部224、図17のステップS66〜S86)と、を備えたコンピュータシステムである。
A fifteenth invention is a computer system that performs control for displaying an image of the virtual reality space on an HMD (head-mounted display) worn by a user by associating the virtual reality space with the real space,
Reference body tracking means for tracking the reference body in the real space using the body part of the user or a controller provided by the user as a reference body (for example, the
Following control means (for example, the
A reaching state setting unit that sets a reaching state including at least a reaching posture when the virtual object reaches a given position or a given area in the virtual reality space (hereinafter, collectively referred to as an “arriving position”). (For example, the
A change that performs control for changing the posture of the virtual object from the posture being followed by the following control means (hereinafter, referred to as “following posture”) to the reaching posture in accordance with the approach of the virtual object to the arrival position. The computer system includes control means (for example, the
第15の発明によれば、第1の発明と同様の作用効果を有するコンピュータシステムを実現できる。なお、ここで言う「コンピュータシステム」は、単独のコンピュータに限らず、複数のコンピュータが通信接続された形態であってもよい。 According to the fifteenth aspect, a computer system having the same functions and effects as the first aspect can be realized. The “computer system” here is not limited to a single computer, but may be a form in which a plurality of computers are connected for communication.
第16の発明は、仮想現実空間と実空間とを対応づけて、ユーザが装着するHMD(ヘッドマウントディスプレイ)に前記仮想現実空間の画像を表示する制御を行うコンピュータシステムであって、前記ユーザの身体部位又は前記ユーザが具備するコントローラを基準体として前記実空間内の前記基準体をトラッキングする基準体トラッキング手段と、前記仮想現実空間において所与の仮想オブジェクトの位置及び姿勢を、前記基準体の位置及び姿勢に対応付けて追従させるように制御する追従制御手段と、前記仮想オブジェクトが前記仮想現実空間内の所与のキャラクタの所与の部位の位置(以下「到達位置」という)へ到達した際の前記仮想オブジェクトの表示形態を少なくとも含む到達状態を設定する到達状態設定手段と、前記仮想オブジェクトの前記到達位置への接近に応じて、前記仮想オブジェクトの状態を前記到達状態に変更する制御を行う変更制御手段と、を備えたコンピュータシステムである。 A sixteenth invention is a computer system which controls the display of the image of the virtual reality space on an HMD (head mounted display) worn by the user by associating the virtual reality space with the real space. Reference body tracking means for tracking the reference body in the real space using a body part or a controller provided by the user as a reference body, and the position and orientation of a given virtual object in the virtual reality space, Follow-up control means for controlling to follow in association with a position and a posture, and the virtual object has reached a position of a given part of a given character in the virtual reality space (hereinafter referred to as an "arrival position") Arrival state setting means for setting an arrival state including at least a display form of the virtual object at the time of Depending on the approach to the arrival position of the object, and change control means for controlling to change the state of the virtual object to the arrival status is a computer system comprising a.
第16の発明によれば、第9の発明と同様の作用効果を有するコンピュータシステムを実現できる。なお、ここで言う「コンピュータシステム」は、単独のコンピュータに限らず、複数のコンピュータが通信接続された形態であってもよい。 According to the sixteenth aspect, a computer system having the same functions and effects as the ninth aspect can be realized. The “computer system” here is not limited to a single computer, but may be a form in which a plurality of computers are connected for communication.
図1は、本実施形態におけるゲームシステム1000の構成の一例を示す図である。本実施形態のゲームシステム1000は、仮想現実体験(VR体験)をユーザに提供する仮想現実体験提供装置である。ゲームシステム1000は、プレーヤがヘッドトラッキング機能付きのVR(Virtual Reality)型のHMDを頭部に装着するとともにコントローラを把持して、実空間である所定のプレイフィールド内を移動しながらプレイするゲームを実行するためにデザインされたコンピュータシステムである。
FIG. 1 is a diagram illustrating an example of a configuration of a
具体的には、ゲームシステム1000は、保護壁3と保護シート4とで画成されたプレイフィールドと、プレーヤ2が頭部に装着するヘッドフォン5及びHMD6と、プレーヤ2が把持するコントローラ8と、HMD6やコントローラ8の位置や姿勢のトラッキングをするための複数のトラッキング用カメラ7と、これら(HMD6・コントローラ8・トラッキング用カメラ7)とデータ通信可能に接続されたゲーム制御装置1100と、を備える。
Specifically, the
本実施形態のゲームシステム1000はシングルプレイ用を想定しており、保護壁3・保護シート4・HMD6・コントローラ8・トラッキング用カメラ7のセット(図示の例では3台で1セット)が1組備えられているとする。しかし、ゲームシステム1000を、マルチプレイ用として運用する場合には、適宜、それらを1組として、複数組をゲーム制御装置1100に接続すればよい。
The
なお、ゲーム操作のデザインによっては1人当たりのコントローラ8は複数でもよい。また、1セットとされるトラッキング用カメラ7の台数や配置位置関係は、採用するトラッキング技術によって適宜設定可能であり、図示の例に限定されるものではない。例えば、マルチプレイであっても、トラッキング用カメラ7のセットを兼用とし、トラッキング用カメラ7のセットは1組で実現するとしてもよい。
Note that there may be a plurality of
保護壁3は、HMD6を装着したプレーヤ2が衝突しても怪我をしないように表面を弾性体で覆った壁体である。柵体やネットでもよい。
The
保護シート4は、HMD6を装着したプレーヤ2が転倒しても怪我をしないように床面を被う保護材である。例えば、人が立つなどの静的荷重に対しては適度な硬さを示すが、衝撃は適切に吸収する弾性体シートである。なお、保護シート4の代わりに、プレーヤ2にヘルメットの装着や、肩・肘・膝などへの保護パッドの装着を義務づけるとしてもよい。
The
ヘッドフォン5は、プレーヤ2の左右の耳をそれぞれ被う左右のスピーカ部を備える。1つのスピーカ部が備えるスピーカの数は適宜設定可能である。
The
HMD6は、頭部の向きと方向とがトラッキング可能なVR型のヘッドマウントディスプレイである。本実施形態では、装着すると両眼が被われて周囲の様子が見えなくなる没入型(非透過型)とするが、透過制御により透過/非透過を制御できるタイプでもよい。その場合、非常時を除くゲームプレイ中は基本的に非透過に制御されるものとする。
The
なお、本実施形態のHMD6は、3軸加速度センサと、ジャイロセンサと、トラッキング用のマーカとして機能する単数又は複数の発光部と、ヘッドフォン5と、を一体に有するタイプとする。ただし、3軸加速度センサ・ジャイロセンサ・発光部は、HMD6のプレイフィールド内での位置や姿勢を追跡するヘッドトラッキングを実現するために使用されるので、採用するトラッキング技術によって不要な要素は適宜省略できる。
Note that the
図2は、コントローラ8の構成例を示す図である。本実施形態のコントローラ8は、人が片手で把持できるサイズの棒状の把持部81と、その先端に設けられた先端発光体82と、を有する。
FIG. 2 is a diagram illustrating a configuration example of the
把持部81は、コントローラ制御基板85と、バッテリー86とを内蔵する。適宜その表面に、操作スイッチやダイヤルスイッチなどを設けても良い。
The
コントローラ制御基板85は、CPU851と、ICメモリ852と、インターフェースIC853と、無線通信モジュール854と、3軸加速度センサ855と、ジャイロセンサ856と、を備える。勿論、これら以外の電子部品も適宜備えることができる。
The
CPU851は、ICメモリ852に記憶されているプログラムを実行することにより、先端発光体82の発光制御と、3軸加速度センサ855及びジャイロセンサ856による検出信号を無線通信モジュール854を介してゲーム制御装置1100へ送信する制御と、を実行する。
The
なお、3軸加速度センサ855と、ジャイロセンサ856と、先端発光体82とは、コントローラ8のプレイフィールド内での位置や姿勢を追跡するコントローラトラッキングを実現するために使用されるので、採用するトラッキング技術によって不要な要素は適宜省略できる。
The three-
また、コントローラ8の外観形状は、これに限らず適宜設定可能である。家庭用据置型ゲーム装置のゲームコントローラをコントローラ8として使用してもよいし、専用のコントローラ8を設けることとしてもよい。専用のコントローラ8を設ける場合には、その形状は適宜設定でき、例えば指輪型や、腕輪型、指サック型、などでもよい。
The external shape of the
図1に戻って、トラッキング用カメラ7は、プレイフィールド内を撮影範囲に収め、HMD6やコントローラ8を撮影した画像の信号やデータを、ゲーム制御装置1100へ送信する。そして、撮影した画像は、公知のモーションキャプチャ技術と同様にして、HMD6のプレイフィールド内での位置や姿勢を追跡するヘッドトラッキングや、コントローラ8のプレイフィールド内での位置や姿勢を追跡するコントローラトラッキングに使用される。なお、採用するトラッキング技術によっては、トラッキング用カメラ7を省略してもよい。或いは、カメラに代えて深度センサを採用するとしてもよい。
Returning to FIG. 1, the tracking
ゲーム制御装置1100は、ゲームシステム1000に含まれるコンピュータシステムの1つである。本実施形態のゲーム制御装置1100は、本体装置1101と、タッチパネル1108と、を有し、本体装置1101は、プレイ対価支払部1110と、制御基板1150とを搭載する。
The
プレイ対価支払部1110は、ゲームプレイの対価の支払いを受け付け、支払操作の検知信号を制御基板1150へ出力する。プレイ対価支払部1110は、例えば硬貨投入装置や、仮想通貨に紐付けられた情報を記憶する媒体(例えば、クレジットカード、プリペイドカード、電子マネーカード、ユーザカードなど)の読み取り装置で実現され、現金やクレジット、仮想通貨による支払いに対応する。勿論、ゲームプレイの対価の支払いが不要な構成であってもよい。
The
制御基板1150には、CPU(Central Processing Unit)1151やGPU(Graphics Processing Unit)、DSP(Digital Signal Processor)などの各種マイクロプロセッサ、VRAMやRAM,ROM等の各種ICメモリ1152、通信装置1153が搭載されている。なお、制御基板1150の一部又は全部は、ASIC(Application Specific Integrated Circuit)や、FPGA(field-programmable gate array)、SoC(System on a Chip)により実現するとしてもよい。
The
そして、ゲーム制御装置1100は、制御基板1150が所定のプログラム及びデータに基づいて演算処理することにより、1)ユーザ登録等に係るユーザ管理機能と、2)ヘッドトラッキング及びコントローラトラッキングの機能と、3)HMD6及びコントローラ8を1組のユーザ端末と見なしたゲーム進行に係る各種制御を実行するゲーム管理機能と、を実現する。つまり、本実施形態におけるゲームは、一種のクライアント・サーバ型のオンラインゲームとして実現される。
Then, the
なお、制御基板1150が実行する制御は、これらに限らず、クレジットや仮想通貨によるプレイ対価の支払いに係る制御を、適宜含む。マルチプレイ用にデザインした場合には、他のゲーム制御装置1100を使用する他プレーヤとのマッチング機能を行うとしてもよい。
Note that the control executed by the
また、本実施形態ではゲーム制御装置1100を単体として記しているが、それら各機能を分担する複数のコンピュータを搭載して相互に内部バスを介してデータ通信可能に接続した構成であっても良い。或いは、離れた場所に設置された独立した複数のコンピュータを、通信回線(有線/無線を問わない)を介してデータ通信させることで、全体としてゲーム制御装置1100として機能させる構成であっても良い。
Further, in the present embodiment, the
[原理の説明]
図3は、本実施形態におけるユーザサポートの前提を説明するための図である。図の上側が仮想現実空間の状態を示し、図の下側が実空間の状況を示している。
[Explanation of principle]
FIG. 3 is a diagram for explaining the premise of user support in the present embodiment. The upper side of the figure shows the state of the virtual reality space, and the lower side of the figure shows the state of the real space.
本実施形態のVR体験は、仮想恋人10と一緒に様々なイベントをこなすことで仮想恋人10がプレーヤに抱く好感度を高めさせ、仮想恋人10からプレーヤへ愛の告白を受けることをゴールとする恋愛シミュレーションゲームである。
The VR experience according to the present embodiment has a goal that the
図示の状態は、とあるデートイベントの冒頭であり、「あーん」と口を開けて待っている仮想恋人10に仮想ケーキ14を食べさせてあげるシーンであり、仮想テーブル12から仮想ケーキ14を仮想フォーク16で刺して、仮想ケーキ14の向きを食べやすく合わせながら仮想恋人10の口へ運んで挿入するシーンを示している。すなわち、プレーヤは、移動対象とされる仮想オブジェクト(移動対象オブジェクト:仮想ケーキ14)を、移動目標位置(到達位置:仮想恋人10の口)へ、理想とする状態(この場合、仮想ケーキ14の向きと仮想恋人10の口の向きを合わせる)にして運搬するシーンである。
The state shown in the figure is the beginning of a certain date event, in which a
HMD6を装着したプレーヤ2の視界には、コントローラ8を基準体として追従制御される仮想手20(仮想現実空間におけるプレーヤ2の仮想身体部位)が仮想フォーク16を持った状態で表示される。仮想フォーク16の姿勢とコントローラ8の姿勢とは、移動対象を移動目標位置へ移動させるまでの間、所定の相対関係に固定されている。図示の例では、フォークの長手方向とコントローラ8の長手方向とが所定の関係に固定されている。
In the field of view of the
図4及び図5は、本実施形態におけるユーザサポートの原理を説明するための図である。図4は側面から見た図、図5は上から見た図に相当する。 FIGS. 4 and 5 are diagrams for explaining the principle of user support in the present embodiment. FIG. 4 corresponds to a view from the side, and FIG. 5 corresponds to a view from the top.
図4及び図5それぞれの上側は、コントローラ8のトラッキングにズレが生じている状態(現状)を強調して表している。すなわち、様々な理由によりコントローラ8のトラッキングにズレが生じると、仮想フォーク16の姿勢とコントローラ8の姿勢との対応付け(追従関係)にズレが生じてしまう。図示の例では、コントローラ8は水平状の姿勢であるのに対して仮想フォーク16は斜め右上方に向けた姿勢になっている。両者の姿勢の対応付けにズレが生じた状態である。この状況で、仮想ケーキ14を理想の状態で仮想恋人10の口に差し込むには、プレーヤは不自然なほどに手首を曲げなければならない。
The upper side of each of FIG. 4 and FIG. 5 emphasizes a state where the tracking of the
この不自然な手首の曲げは、仮想現実空間と実空間との違いを際立たせ、VR体験の没入感やVRのリアリティを損なう上に、プレーヤに無理な操作を強いることとなりゲームへの評価も損なう結果となる。そこで本実施形態では、図4及び図5それぞれの下側に示すように、移動対象オブジェクトを理想状態(移動対象オブジェクトが移動目標位置(到達位置)へ到達した際に理想とされる状態(到達状態)に近づけるように補正を行う。 This unnatural bending of the wrist highlights the difference between the virtual reality space and the real space, impairs the immersive feeling of the VR experience and the reality of the VR, and also forces the player to perform unreasonable operations, and the evaluation of the game The consequences are impaired. Therefore, in the present embodiment, as shown in the lower part of each of FIGS. 4 and 5, the movement target object is set in the ideal state (the state where the movement target object is ideal when the movement target object has reached the movement target position (arrival position). Is corrected so as to approach (state).
図6は、理想状態を設定する区域の例について説明するための概念図である。
本実施形態における理想状態は、仮想ケーキ14及び仮想フォーク16が、仮想恋人10の口に向けて、どの方位から接近してくるかによって幾通りか用意されている。
具体的には、仮想恋人10の口に移動目標位置Pmを設定し、移動目標位置Pmを基点として顔の正面方向を基準方向とする。なお、移動目標位置Pmは適宜移動目標エリアとすることができる。
FIG. 6 is a conceptual diagram for describing an example of an area where an ideal state is set.
The ideal state in the present embodiment is prepared in several ways depending on from which direction the
Specifically, the movement target position Pm is set in the mouth of the
そして、基準方向に基づいて仮想恋人10の前方に、複数の理想状態設定区域30を設定し区域毎に理想状態を設定する。本実施形態では、正面側の空間を上下左右に分割し、第1区域30a〜第4区域30dの4つの理想状態設定区域30を設定するが、分割数や分割境界の数、区域の形状は適宜設定可能である。区域の形状は同じ形状でも良いし、それぞれ固有の形状であってもよい。
Then, a plurality of ideal state setting areas 30 are set in front of the
また、本実施形態では、これらの理想状態設定区域30(30a〜30d)の上下左右それぞれの更に外側に警告区域30eを設定し、警告目的のための特別な理想状態を設定する(詳細後述)。警告区域30eは、実空間における保護壁3や保護シート4などの境界物との衝突が心配される領域である。プレイフィールドが、保護壁3や保護シート4などで画成されない十分に広いオープンスペースであれば、警告区域30eを省略することができる。
In the present embodiment, a
なお、これらの理想状態設定区域30(30a〜30e)が設定されていない空間、例えば、仮想恋人10の背後の空間では理想状態が存在しないので移動対象オブジェクトの位置や姿勢の補正は行われないことになる。
Note that, in a space in which these ideal state setting areas 30 (30a to 30e) are not set, for example, a space behind the
図7及び図8は理想状態の設定概念と補正の例を説明するための図である。図7は、仮想恋人10を上から見た図に相当し、代表として第1区域30aと第2区域30bとを示している。図8は、仮想恋人10を側面から見た図に相当し、代表として第1区域30aと第4区域30dとを示している。
7 and 8 are diagrams for explaining the concept of setting the ideal state and an example of correction. FIG. 7 corresponds to a view of the
仮想恋人10は、静物ではないのでゲームプレイ中さまざまな動作をする。その位置や姿勢は一定とは言えない。そこで、理想状態は、基準方向(移動目標位置Pmを基点として仮想恋人10の顔正面方向)に基づいて区域毎に所定の演算式により求められるようになっている。
Since the
例えば、第1区域30aの理想状態は、1)右手にあたる仮想手20で仮想フォーク16を持ち、且つ2)仮想ケーキ14の所定先端部が仮想恋人10の口を向き、且つ3)仮想ケーキ14の長手方向が基準方向に対して前方やや左上方より浅い角度で交差する姿勢、と設定される。
For example, the ideal state of the
第2区域30bの理想状態は、1)左手にあたる仮想手20で仮想フォーク16を持ち、且つ2)仮想ケーキ14の所定先端部が仮想恋人10の口を向き、且つ3)仮想ケーキ14の長手方向が基準方向に対して前方やや右上方より浅い角度で交差する姿勢、と設定される。
The ideal state of the
第4区域30dの理想状態は、1)右手にあたる仮想手20で仮想フォーク16を持ち、且つ2)仮想ケーキ14の所定先端部が仮想恋人10の口を向き、且つ3)仮想ケーキ14の長手方向が基準方向に対して前方やや左下方より浅い角度で交差する姿勢、と設定される。
The ideal state of the
つまり、それぞれの区域の設定されている方位から、仮想ケーキ14・仮想フォーク16・仮想手20のセットが仮想恋人10の口へ目がけてアプローチする上で、最終的に仮想ケーキ14を口に挿入するのに自然で理想的とされる位置と姿勢とが設定される。
That is, the
そして、仮想ケーキ14・仮想フォーク16・仮想手20への補正は、移動目標位置Pmへの接近度合、具体的には移動目標位置Pmから仮想手20(コントローラ8の位置)までの距離Lに応じて、距離Lが小さい程より強く補正される。
The correction to the
よって、図4や図5のようにトラッキングのズレが生じているとしても、図7及び図8に示すように、仮想ケーキ14・仮想フォーク16・仮想手20が仮想恋人10の口に近づくにつれて、プレーヤ2にはそれと気付かれないように徐々に理想状態に近づくように円滑且つ自然に補正される。
Therefore, even if the tracking deviation occurs as shown in FIGS. 4 and 5, as shown in FIGS. 7 and 8, the
一方、警告区域30eについては、警告目的の理想状態が設定されている。具体的には、あからさまにプレーヤが異変を感じ、それ以上コントローラ8を警告区域30eに移動させるのが好ましくないと感じさせる状態を設定する。
On the other hand, in the
例えば、仮想フォーク16ごと滑り落ちる、仮想ケーキ14が崩れて仮想フォーク16から落ちる、と言った移動対象オブジェクトの位置や姿勢の異常状態を設定すると好適である。また、仮想ケーキ14や仮想フォーク16、仮想手20の表示モデル(表示形態の一例)が警告表示体に変化する、仮想ケーキ14が警告色に染まる、仮想ケーキ14が明滅する、仮想ケーキ14が振動する、と言った移動対象オブジェクトの動作や表示形態(表示モデル、表示サイズ、表示色、明度、透明度、を含む意)の異常状態を設定すると好適である。
For example, it is preferable to set an abnormal state of the position or posture of the moving target object, such as sliding down the
図9は、移動対象オブジェクトの補正の仕方について説明するための概念図である。
第1区域30a〜第4区域30dについては、移動目標位置Pm(仮想恋人10の口)から、仮想手20までの距離Lを変数とする所定の補正割合導出関数f1で、補正に適用される補正割合が決定される(図中のN%)。そして、補正割合0%に相当する現状(図中の点線表記)と、補正割合100%に相当する理想状態(図中の破線表記)との間で、適用される補正割合に応じて中割りされた状態を求め、これを補正制御の「目標状態」とする(図中の実線表記)。すなわち、本実施形態では、距離Lがゼロに近づくほど、仮想ケーキ14・仮想フォーク16・仮想手20の位置や姿勢、動作、表示形態の制御パラメータ値を、現状の値から目標状態の値に近づけるように変更して仮想ケーキ14・仮想フォーク16・仮想手20の表示に係る制御パラメータ値を更新する。
FIG. 9 is a conceptual diagram for describing a method of correcting a movement target object.
The
なお、位置や姿勢、動作、表示形態のうちどの制御パラメータ値を変更対象とするかは、移動対象オブジェクトのゲーム内における役割に応じて適宜設定可能である。本実施形態では、少なくとも姿勢を変更対象とする。 Note that which control parameter value among the position, posture, motion, and display form is to be changed can be appropriately set according to the role of the moving target object in the game. In the present embodiment, at least the posture is to be changed.
補正導出関数は、移動対象オブジェクトのゲーム内における役割に応じて適宜設定可能である。本実施形態では、第1区域30a〜第4区域30dでは、補正制御発動条件距離Lc以下の範囲で、距離Lに反比例して補正割合が100%に近づく補正導出関数f1が設定されている。一方、警告区域30eでは、補正制御発動条件距離以下になると常に補正割合が100%になる補正導出関数が設定されている。すなわち、移動対象オブジェクトが警告区域30eに入ると直ちに理想状態を再現するように補正される。
The correction derivation function can be appropriately set according to the role of the moving target object in the game. In the present embodiment, in the
[機能構成の説明]
図10は、本実施形態におけるゲームシステム1000の機能構成例を示す機能ブロック図である。本実施形態におけるゲームシステム1000は、操作入力部100と、処理部200と、音出力部390と、画像表示部392と、通信部394と、記憶部500とを備える。
[Explanation of functional configuration]
FIG. 10 is a functional block diagram illustrating a functional configuration example of the
操作入力部100は、ゲームシステム1000の管理やゲームプレイのための各種操作を入力するための手段である。本実施形態では、図1のHMD6及びトラッキング用カメラ7は操作入力部100の1つであり、プレーヤ2が見ている位置や方向、プレーヤの身体部位の位置を入力する機能を果たし、トラッキング用カメラ7及びコントローラ8は操作入力部100の1つであり、プレーヤの身体部位の位置を入力する機能を果たす。
The
処理部200は、例えばCPUやGPU等のマイクロプロセッサや、ASIC、FPGA、ICメモリなどの電子部品によって実現され、操作入力部100や記憶部500を含む各機能部との間でデータの入出力を行う。図1の制御基板1150がこれに該当する。そして、処理部200は、所定のプログラムやデータ、操作入力部100からの操作入力信号、HMD6やコントローラ8、トラッキング用カメラ7などから受信したデータに基づいて各種の演算処理を実行して、ゲームシステム1000の動作を統合的に制御する。
The
具体的には、本実施形態の処理部200は、ゲーム進行制御部210と、計時部280と、音生成部290と、画像生成部292と、通信制御部294とを含む。勿論、これら以外の機能部も適宜含めることができる。
Specifically, the
ゲーム進行制御部210は、ゲームの実行管理に係る各種処理を行う。具体的には、ゲーム進行制御部210は、仮想現実空間設定部212と、HMDトラッキング部214と、コントローラトラッキング部216と、追従制御部218と、到達位置設定部220と、到達状態設定部222と、変更制御部224と、キャラクタ制御部226と、を有する。
The game
なお、本実施形態のゲームは、シングルプレイを前提としているが、もしPvP(Player versus Player)形式でゲームを実行する場合には、ゲーム進行制御部210に対戦者のマッチングに関する制御を実行させることとしてもよい。
Note that the game of the present embodiment is based on single play, but if the game is to be executed in a PvP (Player versus Player) format, the game
仮想現実空間設定部212は、仮想3次元空間に各種背景オブジェクトを配置して、仮想現実空間を設定・管理する。
The virtual reality
HMDトラッキング部214は、HMD6のトラッキングに係る処理を実行する。プレーヤの視点位置及び視線方向をトラッキングするとも言える。
The
コントローラトラッキング部216は、コントローラ8又はそれを具備するプレーヤ2の身体部位の位置及び姿勢のトラッキングに係る処理を実行する。本実施形態では、移動対象オブジェクトの移動は、コントローラ8を基準体として追従制御することにより実現されるので、コントローラトラッキング部216は、プレーヤ(ユーザ)の身体部位又はユーザが具備するコントローラを基準体として実空間内の基準体の位置をトラッキングする手段であるとも言える。
The
なお、本実施形態では、コントローラ8が具備される身体部位としてプレーヤ2の右手を例示したが、ゲーム内容やコントローラの形態によっては、左手は勿論のこと、手指、関節、脚、頭部、腹部、背、肩、額、口、鼻、などその他の部位でもよい。
In the present embodiment, the right hand of the
追従制御部218は、仮想現実空間において移動対象オブジェクト(仮想オブジェクト)の位置及び姿勢を、基準体の位置及び姿勢に対応付けて追従させるように制御する。本実施形態では、仮想ケーキ14・仮想フォーク16・仮想手20を一体として、コントローラ8の位置と姿勢に追従するように制御する。
The
到達位置設定部220は、仮想現実空間内にプレーヤが移動させる仮想オブジェクト(移動対象オブジェクト)の到達位置(移動目標位置Pm)を設定する。本実施形態では、仮想現実空間内の所与のキャラクタの所与の部位に、到達位置を設定することができる。すなわち、仮想恋人10の口に到達位置を設定することができる。
The arrival
到達状態設定部222は、プレーヤが移動させる仮想オブジェクトが仮想現実空間内の所与の位置(又は所与のエリア)へ到達した際の到達姿勢を少なくとも含む到達状態、本実施形態で言うところの理想状態を設定する。
The reaching
具体的には、到達状態設定部222は、到達位置に向かう仮想オブジェクトの方位別に到達状態を対応付けて設定する。本実施形態では、理想状態設定区域30(30a〜30e)別に理想状態を設定する(図7,図8参照)。
Specifically, the arrival
また、到達状態設定部222は、到達位置が仮想現実空間内の所与のキャラクタに設定されている場合、その設定されている部位の向きに応じて到達姿勢を設定することができる。本実施形態では、仮想恋人10の基準方向に基づいて理想状態が決まることがこれに該当する。
In addition, when the reaching position is set to a given character in the virtual reality space, the reaching
変更制御部224は、移動させる仮想オブジェクトの到達位置への接近に応じて、当該仮想オブジェクトの姿勢を、追従制御部218により追従されている姿勢(追従姿勢)から到達姿勢(理想状態)に変更する制御を、当該仮想オブジェクトから対応する到達位置までの距離Lが所与の変更制御発動条件を満たした場合に実行する(補正制御発動条件距離Lc;図9参照)。
The
具体的には、変更制御部224は、移動される仮想オブジェクトが到達位置へ接近する方位(逆説的には、移動目標位置へのアプローチ方位)と方位別の到達状態とに基づいて、接近するに従って(当該仮想オブジェクトから到達位置までの距離が短くなるに従って)、当該仮想オブジェクトの姿勢を到達姿勢に近づけるように変更制御することができる。
Specifically, the
また、変更制御部224は、所定の急変発動条件を満たした場合には、移動される仮想オブジェクトの姿勢を、追従姿勢から到達姿勢に直ちに変更することができる。本実施形態では、警告区域30eへの仮想手20の到達を急変発動条件とし、警告目的の理想状態へ補正割合100%で直ちに補正制御することがこれに該当する。
Further, when a predetermined sudden change activation condition is satisfied, the
キャラクタ制御部226は、プレーヤに移動される仮想オブジェクトがその到達位置へ接近するのに応じて、到達位置が設定されたキャラクタの位置及び/又は姿勢を制御する。本実施形態では、仮想ケーキ14が仮想恋人10に近づくと仮想恋人10自らが仮想ケーキ14に口を寄せるようなお迎えの動作をさせる。
The
計時部280は、システムクロックを利用して現在日時や制限時間等の計時を行う。
The
音生成部290は、音声データの生成や合成、デコードなどをする回路やIC、ソフトウェアの実行により実現され、ゲームシステム1000のシステム管理やゲームプレイに係る立体音響や、操作音、BGMなどの音声データを生成或いはデコードする。そして、システム管理に関する音声やゲームプレイに係る音声の信号を音出力部390へ出力する。
The
音出力部390は、音声信号から音声を再生して放音する。図1の例ではヘッドフォン5や、タッチパネル1108に一体的に備えられたスピーカ(不図示)がこれに該当する。
The
画像生成部292は、ゲームシステム1000のシステム管理に関する画像や、ゲームプレイに必要な画像等を生成し、画像表示部392へ出力することができる。
The
画像表示部392は、画像生成部292から入力される画像信号に基づいてシステム管理のための各種画像や、ゲームプレイに必要な画像を表示する。例えば、フラットパネルディスプレイ、ブラウン管(CRT)、プロジェクター、ヘッドマウントディスプレイといった画像表示装置によって実現できる。図1の例では、HMD6及びタッチパネル1108がこれに該当する。
The
通信制御部294は、データ通信に係るデータ処理を実行し、通信部394を介して外部装置とのデータのやりとりを実現する。
通信部394は、所定のネットワークと接続して通信を実現する。例えば、無線通信機、モデム、TA(ターミナルアダプタ)、有線用の通信ケーブルのジャックや制御回路等によって実現される。図1の例では通信装置1153が該当する。
The
The
これらは、例えば、他のゲームシステム1000とマルチプレイのために通信接続したり、ゲームプレイの対価の支払いを仮想通貨やクレジットカード決済で行う場合には、プレーヤが所持する仮想通貨の管理サーバやクレジットカード決済用のサーバと通信するのに使用される。勿論、これら以外にもプログラムやデータの取得・更新の為に所定のサーバと通信するとしてもよい。
For example, when a communication connection is made with another
記憶部500は、処理部200にゲームシステム1000を統合的に制御させるための諸機能を実現するためのプログラムや各種データ等を記憶する。また、処理部200の作業領域として用いられ、処理部200が各種プログラムに従って実行した演算結果などを一時的に記憶する。この機能は、例えばRAMやROMなどのICメモリ、ハードディスク等の磁気ディスク、CD−ROMやDVDなどの光学ディスク、オンラインストレージなどによって実現される。図1の例ではICメモリ1152がこれに該当する。
The
図11は、本実施形態の記憶部500に記憶されるプログラムやデータの例を示す図である。記憶部500は、システムプログラム501と、ゲームプログラム503と、仮想現実空間初期設定データ510と、アバターキャラクタ初期設定データ516と、仮想オブジェクト初期設定データ520と、イベント定義データ540と、を予め記憶する。また、逐次生成・管理されるデータとして、プレイデータ700と、現在日時800と、を記憶する。その他、タイマや、カウンタ、各種フラグなどの情報を適宜記憶できる。
FIG. 11 is a diagram illustrating an example of programs and data stored in the
システムプログラム501は、処理部200が読み出して実行することでゲームシステム1000(この場合、ゲーム制御装置1100)にコンピュータとして必要な基本的な入出力機能を実現するためのシステムプログラムである。
The
ゲームプログラム503は、処理部200が読み出して実行することで、ゲーム進行制御部210、計時部280などの機能を実現させるためのプログラムである。
The
仮想現実空間初期設定データ510は、仮想現実空間を構築するための各種データを格納する。例えば、仮想テーブル12(図3参照)のように背景物となる各種オブジェクトのモデルデータ、テクスチャデータ、初期配置位置データなどを格納する。
The virtual reality space
アバターキャラクタ初期設定データ516は、仮想現実空間におけるプレーヤ2を代理するオブジェクトを定義するデータである。本実施形態では、仮想手20のような身体部位の一部のみを表示する構成とするが全身を表示する構成とするならば全身分のデータを含むとしてもよい。
The avatar character
仮想オブジェクト初期設定データ520は、ゲームに登場するアバターキャラクタ以外の仮想オブジェクト毎に用意される。本実施形態では、仮想恋人10、仮想テーブル12、仮想ケーキ14、仮想フォーク16それぞれについて用意されることになる(図3参照)。
The virtual object
1つの仮想オブジェクト初期設定データ520は例えば図12に示すように、固有の仮想オブジェクトID521と、当該仮想オブジェクトのモデルデータ522と、標準の表示形態を定義する標準表示形態523と、標準の動作を定義する標準動作524と、出現タイミング525と、初期配置位置526と、初期配置姿勢527と、対応付け開始条件528と、イベント対応設定データ530と、を含む。勿論、これら以外のデータも適宜含めることができる。
As shown in FIG. 12, for example, one virtual object
対応付け開始条件528は、コントローラ8と当該仮想オブジェクトとの対応づけを開始する条件である。対応付けされると、それが解除されるまで当該仮想オブジェクトはコントローラ8に対して追従制御されることとなる。本実施形態では、仮想ケーキ14に係る対応付け開始条件528には、仮想手20が所定の基準値以下の距離まで仮想ケーキ14に接近したことを示す距離を設定する。なお、コントローラ8の操作スイッチを使って、仮想フォーク16を仮想ケーキ14に刺す操作、或いは仮想ケーキ14を持つ操作の入力を当該条件に加えてもよい。
The
イベント対応設定データ530は、当該仮想オブジェクトがイベントの発動に対応して特別な表示形態に変わったり特別な動作をする場合に設定される。
1つのイベント対応設定データ530は、1)当該設定データがどのイベントに適用されるかを定義する適用イベントID531と、2)当該イベントにおいて限定的に適用される当該仮想オブジェクトの表示形態を定義するイベント用表示形態532と、3)当該イベントにおいて限定的に適用される当該仮想オブジェクトの動作を定義するイベント用動作533と、4)当該イベント用動作を発動させる条件を定義するイベント用動作発動条件534と、を含む。勿論、これら以外のデータも適宜含めることができる。
The event
One event
本実施形態では、仮想ケーキ14を持つ仮想手20が仮想恋人10に近づくと、仮想恋人10が仮想ケーキ14を迎えに行くような口を寄せる動作をするように設定されている。よって、仮想恋人10に係るイベント用動作533には、移動対象オブジェクトに口を寄せる動作を実現するためのデータが定義され、イベント用動作発動条件534には、仮想ケーキ14・仮想手20(コントローラ8又はそれを具備するプレーヤの身体部位である基準体)との相対距離の閾値が定義される
In the present embodiment, when the
イベント定義データ540は、ゲーム内でプレーヤ2が仮想オブジェクトの移動・運搬を伴うイベント毎に用意され、当該イベントを実現するための各種データを格納する。本実施形態では、仮想ケーキ14を仮想恋人10の口に運ぶイベントの定義データが用意されている。
The
1つのイベント定義データ540は、例えば図13に示すように、1)固有のイベントID541と、2)当該イベントが開始される条件を定義するイベント開始条件542と、3)当該イベントが終了されるイベント終了条件543と、4)イベントにて移動される仮想オブジェクトを示す移動対象オブジェクトIDリスト544と、5)当該イベントにおける移動対象オブジェクトの移動目標位置Pm(図7〜図8参照)を定義する移動目標位置定義データ560と、6)理想状態設定区域30(図6参照)毎に用意される理想状態定義データ570と、を含む。勿論、これら以外のデータも適宜含めることができる。
As shown in FIG. 13, for example, one
移動目標位置定義データ560は、設定対象オブジェクトID561と、位置座標562と、を含む。
The movement target
設定対象オブジェクトID561は、移動目標位置Pmを仮想オブジェクトのある部分に設定する場合に、当該仮想オブジェクトの識別情報を格納する。仮想現実空間の特定場所に設定する場合には「NULL」が設定される。本実施形態では、仮想恋人10のオブジェクトIDが設定されることになる。
The
位置座標562には、移動目標位置Pmを仮想オブジェクトのある部分に設定する場合には、当該ある部分を特定するための当該仮想オブジェクトの代表点を基準とする相対位置座標が設定され、仮想現実空間の特定場所に設定する場合にはワールド座標系の特定座標が設定される。本実施形態では、仮想恋人10の口の位置座標が設定されることになる。
When the movement target position Pm is set to a certain part of the virtual object, relative position coordinates based on a representative point of the virtual object for specifying the certain part are set as the position coordinates 562, and the virtual reality is set. When a specific location in the space is set, specific coordinates in the world coordinate system are set. In the present embodiment, the position coordinates of the mouth of the
1つの理想状態定義データ570は、例えば図14に示すように、理想状態設定区域定義データ571と、理想状態設定素材データ572とを含む。
One ideal
理想状態設定区域定義データ571は、理想状態設定区域30(図6参照)を定義する。移動対象オブジェクトが移動目標位置へ接近アプローチする方位の範囲として定義する。
The ideal state setting
理想状態設定素材データ572は、理想状態を設定するための素材となる各種データを格納する。本実施形態では、理想制御パラメータ値導出関数リスト573と、指定理想制御パラメータ値リスト574と、補正割合定義データ575と、を含む。理想制御パラメータ値導出関数リスト573と指定理想制御パラメータ値リスト574は、何れか一方が設定されると他方が未設定の状態とされる
The ideal state
理想制御パラメータ値導出関数リスト573は、移動対象オブジェクト(本実施形態における仮想ケーキ14)の理想状態を実現する制御パラメータ値を、その都度算出する必要がある場合に設定され、制御パラメータ値毎に用意される導出関数が単数又は複数格納される。
The ideal control parameter value
本実施形態では、第1区域30a〜第4区域30dに対応づけられる理想制御パラメータ値導出関数リスト573では、仮想ケーキ14の理想状態の位置座標及び姿勢それぞれを導出する関数が格納される。特に姿勢を導出するための関数には、移動目標位置Pmが設定された仮想オブジェクト(仮想恋人10)の特定パラメータ(仮想恋人10の正面を示す単位方向:図7参照)を変数として含むように設定されている。なお、導出関数に換えて、距離Lに応じたテーブルデータとしてもよい。
In the present embodiment, in the ideal control parameter value
指定理想制御パラメータ値リスト574は、移動対象オブジェクトの理想状態の制御パラメータ値を固定する場合に設定される。本実施形態では、警告区域30eに対応づけられる指定理想制御パラメータ値リスト574は、仮想ケーキ14が崩れ落ちたり、仮想フォーク16が滑り落ちたりする動作、仮想ケーキ14が明滅するなど、警告目的に用意された特定の理想状態を再現するための各種制御パラメータ値(位置・姿勢・動作・表示形態など)が含まれる。
The specified ideal control
補正割合定義データ575は、補正割合を決定するためのデータである。本実施形態では、距離L(図7,図8参照)を変数とした補正割合導出関数f1(図9参照)又はそれに相当するテーブルデータとする。
The correction
図11に戻って、プレイデータ700は、ゲームプレイ毎に用意され、ゲーム進行状況を記述する各種データを格納する。本実施形態ではシングルプレイを前提として説明しているので1つのみ図示しているが、マルチプレイの場合には複数用意されることになる。
Returning to FIG. 11, the
1つのプレイデータ700は、プレーヤアカウント701と、プレイ開始日時703と、HMDトラッキングデータ705と、コントローラトラッキングデータ707と、仮想現実空間制御データ710と、を含む。勿論、これら以外のデータも適宜含めることができる。
One piece of
HMDトラッキングデータ705と、コントローラトラッキングデータ707は、それぞれHMD6及びコントローラ8のプレイフィールド内の位置と姿勢の追跡データであって、トラッキング処理により逐一更新される。
The
仮想現実空間制御データ710は、仮想現実空間に設定される各種要素の制御データを格納する。例えば図15に示すように、右眼用仮想カメラ制御データ711と、左眼用仮想カメラ制御データ712と、アバターキャラクタ制御パラメータ値リスト720と、仮想オブジェクト制御パラメータ値リスト730と、移動目標位置座標740と、距離742と、理想制御パラメータ値リスト744と、補正割合746と、目標制御パラメータ値リスト748と、を含む。勿論、これら以外のデータも適宜含めることができる。
The virtual reality
右眼用仮想カメラ制御データ711と、左眼用仮想カメラ制御データ712は、仮想現実空間内におけるプレーヤの頭部に設定された右眼用仮想カメラ及び左眼用仮想カメラの制御データであって、それぞれ、仮想現実空間内における配置位置座標と姿勢データとを含み、HMDトラッキングデータ705に基づいて逐一変更される。右眼用仮想カメラ及び左眼用仮想カメラは、それぞれHMD6にて右眼/左眼用として表示する仮想現実空間の画像を撮影する。
The right-eye virtual
アバターキャラクタ制御パラメータ値リスト720は、仮想現実空間におけるプレーヤの代理としての存在であるアバターキャラクタの制御に係る各種データを格納する。本実施形態では、仮想手20(図3参照)に係る制御パラメータ値を格納する仮想手制御パラメータ値リスト721を含む。勿論、図示はされていないが、アバターキャラクタの各身体部位の位置や姿勢を示すデータが適宜含まれている。
The avatar character control
仮想オブジェクト制御パラメータ値リスト730は、アバターキャラクタ以外でゲームに登場する各種仮想オブジェクト毎に用意され、当該オブジェクトの状態を管理するための各種制御パラメータ値を格納する。本実施形態では、仮想恋人10、仮想テーブル12、仮想ケーキ14、仮想フォーク16それぞれについて用意されることになる。
The virtual object control
そして、1つの仮想オブジェクト制御パラメータ値リスト730は、位置座標731と、姿勢732と、動作制御パラメータ値733と、表示形態設定データ734と、を含む。勿論、これら以外のデータも適宜含めることができる。
One virtual object control
移動目標位置座標740は、移動目標位置Pmの位置座標を示す(図6〜図8参照)。
距離742は、移動目標位置Pmと移動対象オブジェクト(本実施形態では仮想ケーキ14)又は当該オブジェクトを運ぶ基準体(コントローラ8又はコントローラを持つ手)との距離である。
The movement target position coordinates 740 indicate the position coordinates of the movement target position Pm (see FIGS. 6 to 8).
The
理想制御パラメータ値リスト744は、理想状態を記述する各種制御パラメータ値を格納する。理想状態定義データ570に基づいて算出された結果が格納される(図14参照)。
The ideal control
補正割合746は、その時適用される補正割合を格納する。補正割合定義データ575に基づいて求められた結果が格納される(図14参照)。
The
目標制御パラメータ値リスト748は、移動対象オブジェクトの仮想オブジェクト制御パラメータ値リスト730が補正されるべき目標値を格納する。本実施形態では、移動対象オブジェクトの現状と理想状態との間に補正割合746に応じて中割りされた値が格納されることになる(図9参照)。
The target control
[動作の説明]
図16は、ゲームシステム1000における処理の流れについて説明するためのフローチャートである。ここで説明する処理の流れは、処理部200がシステムプログラム501とゲームプログラム503とを実行することにより実現される。
[Description of operation]
FIG. 16 is a flowchart for describing the flow of processing in
ゲームシステム1000は、先ずログインしたユーザ向けに新たなプレイデータ700を用意して、仮想3次元空間に仮想現実空間を形成する(ステップS4)。
すなわち、仮想現実空間初期設定データ510及び仮想オブジェクト初期設定データ520(図11参照)に基づいて、仮想3次元空間に各種仮想オブジェクトを配置して仮想現実空間を形成し、そこに右眼用仮想カメラと、左眼用仮想カメラと、アバターキャラクタ(仮想手20を含む)などを配置する。
The
That is, based on the virtual reality space
次に、ゲームシステム1000は、HMD6とコントローラ8のトラッキングを開始し(ステップS6)、それぞれのトラッキングの結果に応じて右眼用仮想カメラ及び左眼用仮想カメラ、アバターキャラクタ(仮想手20を含む)の追従制御を開始する(ステップS8)。
Next, the
これ以降、HMD6にはプレーヤ2の頭部の向きに応じた仮想現実空間の景色が立体視として表示される。プレーヤ2が手に持っているコントローラ8の実空間の位置に仮想手20(図3参照)が追従するので、プレーヤ2が自分の手を見ようと頭の向き或いは手の位置を調整すれば、仮想現実空間の景色の中に仮想手20が見えるようになる。つまり、VR体験としての基本的な視覚要素が実現される。
Thereafter, the
次に、ゲームシステム1000は、ゲームを開始する(ステップS30)。そして、イベント定義データ540(図13参照)を参照して、イベント開始条件542が満たされたイベントが有れば(ステップS32のYES)、当該イベントを発動させる(ステップS34)。
Next, the
具体的には、本実施形態のイベントは、移動対象オブジェクトを移動させる要素を含むので、該当するイベント定義データ540の移動対象オブジェクトIDリスト544の示す仮想オブジェクトの仮想オブジェクト初期設定データ520を参照して(図12参照)、初期配置位置526に初期配置姿勢527を実現するように仮想現実空間に配置する。当該発動したイベント対応設定データ530がある場合には、当該データが適用されるものとする。
Specifically, since the event according to the present embodiment includes an element that moves the movement target object, the
なお、本実施形態では、移動対象オブジェクトは仮想現実空間内に配置されたばかりで、コントローラ8又は当該コントローラを具備するプレーヤの身体部位である基準体(以下、コントローラ8とする。)との対応づけはされていない。勿論、ゲーム内容、イベント内容によっては、初期配置の段階で、移動対象オブジェクトとコントローラ8の対応づけが行われる場合があってもよい。
In the present embodiment, the movement target object has just been placed in the virtual reality space, and is associated with the
次に、ゲームシステム1000は、配置済みの移動対象オブジェクトの対応付け開始条件528(図12参照)が満たされているかを判定する(ステップS36)。
Next, the
そして、対応付け開始条件が満たされていれば(ステップS36のYES)、ゲームシステム1000は、配置済みの移動対象オブジェクトとコントローラ8との対応付けを開始する(ステップS38)。両者が対応付けされることにより、ゲームシステム1000は、これ以降、当該時点におけるコントローラ8と移動対象オブジェクトの双方の位置及び姿勢が、当該時点における相対関係(又は所与の相対関係)を維持するように、移動対象オブジェクトをコントローラ8とが一体に移動制御される。本実施形態では、仮想ケーキ14・仮想フォーク16・仮想手20がこれ以降、一体的に仮想現実空間内を移動するようになる。そして、ゲームシステム1000は、制御パラメータ値変更処理を実行する(ステップS40)。
Then, if the association start condition is satisfied (YES in step S36), the
図17は、制御パラメータ値変更処理の流れを説明するためのフローチャートである。同処理は、移動対象オブジェクトの追従状態を補正する補正処理と言い換えることもできる。 FIG. 17 is a flowchart for explaining the flow of the control parameter value changing process. This process can be rephrased as a correction process for correcting the following state of the movement target object.
同処理において、ゲームシステム1000は、先ず移動目標位置Pmを設定する(ステップS60)。具体的には、現在発動されているイベントのイベント定義データ540(図13参照)の移動目標位置定義データ560に従って、プレイデータ700に移動目標位置座標740を設定する(図15参照)。設定対象オブジェクトID561が何れかの仮想オブジェクトを示している場合は、移動目標位置座標740は、逐一当該仮想オブジェクトの代表位置に対して位置座標562が示す相対位置座標を維持するように逐次更新される。
In the process, the
次に、ゲームシステム1000は、対応付けされた移動対象オブジェクトが何れの理想状態設定区域30(図6参照)に存在するかを判定する(ステップS62)。具体的には、現在発動されているイベントのイベント定義データ540の理想状態定義データ570それぞれの理想状態設定区域定義データ571(図14参照)と、移動対象オブジェクト又はコントローラ8又は仮想手20の位置とを比較して判定する。
Next, the
そして、移動対象オブジェクトが存在する理想状態設定区域30の理想状態設定素材データ572に基づいて理想状態を設定する(ステップS64)。具体的には、移動対象オブジェクトが存在する理想状態設定区域30の理想状態設定素材データ572に基づいて、プレイデータ700に理想制御パラメータ値リスト744を設定する(図15参照)。
Then, an ideal state is set based on the ideal state
次に、ゲームシステム1000は、移動対象オブジェクトと移動目標位置Pmとの距離742(図15参照)を算出する(ステップS66)。そして、移動対象オブジェクトが存在する理想状態設定区域30の補正割合定義データ575(図14参照)に従って適用する補正割合746(図15参照)を決定する(ステップS68)。
Next, the
次に、ゲームシステム1000は、移動対象オブジェクトが理想状態になっているかを判定する(ステップS80)。
Next, the
ここでもし否定ならば(ステップS80のNO)、移動対象オブジェクトの仮想オブジェクト制御パラメータ値リスト730と理想制御パラメータ値リスト744と補正割合746とに基づいて、目標制御パラメータ値リスト748を決定する(ステップS82;図9参照)。
Here, if negative (NO in step S80), the target control
そして、ゲームシステム1000は、移動対象オブジェクトの仮想オブジェクト制御パラメータ値リスト730の各値を目標制御パラメータ値リスト748の値に変更し(ステップS84)、移動対象オブジェクト及びこれと一体的に移動する仮想オブジェクトの表示を更新する(ステップS86)。
Then, the
次に、移動目標位置が仮想オブジェクトに設定されているか判定する(ステップS100)。本実施形態の例では、移動目標位置Pmは仮想恋人10の口に設定されているので肯定となる。
Next, it is determined whether or not the movement target position has been set for the virtual object (step S100). In the example of the present embodiment, since the movement target position Pm is set in the mouth of the
そして、肯定の場合で(ステップS100のYES)、且つ当該イベントに対応するイベント対応設定データ530(図12参照)が設定されていてそのイベント用動作発動条件534が満たされるならば(ステップS102のYES)、ゲームシステム1000は、当該仮想オブジェクトのイベント用動作533を発動させる(ステップS104)。本実施形態では、仮想恋人10が口を仮想ケーキ14に寄せるような動作を開始することになる。
If the result is affirmative (YES in step S100), and if the event correspondence setting data 530 (see FIG. 12) corresponding to the event is set and the event
ステップS62〜S104は、移動対象オブジェクトが移動目標位置Pmに到達するまで繰り返され(ステップS110のNO)、移動目標位置Pmに到達すると(ステップS110のYES)、制御パラメータ値変更処理を終了する。 Steps S62 to S104 are repeated until the movement target object reaches the movement target position Pm (NO in step S110). When the movement target object reaches the movement target position Pm (YES in step S110), the control parameter value changing process ends.
図16に戻って、ゲームシステム1000は、ステップS32〜S40をゲーム終了条件が満たされるまで繰り返し(ステップS130のNO)、ゲーム終了条件が満たされると(ステップS130のYES)、一連の処理を終了する。
Returning to FIG. 16, the
以上、本実施形態によれば、VRにおけるユーザサポートを向上するための技術、換言するとVRにおける没入感を阻害させない技術を提供することができる。すなわち、仮想現実空間内で移動対象オブジェクトを移動目標位置Pm(到達目標位置)まで移動させるシーンにおいて、移動対象オブジェクトを所与の理想の姿勢で到達させるために、トラッキング誤差が生じているために、コントローラ8を持つ手を不自然な方向に曲げなければならないような事態を低減できる。そして、無理な操作がきっかけとなるVRのリアリティ感の毀損を防止し、ゲームストーリのスムーズな進行を助けることができる。
As described above, according to the present embodiment, it is possible to provide a technique for improving user support in VR, in other words, a technique that does not hinder the immersion feeling in VR. That is, in a scene in which the movement target object is moved to the movement target position Pm (the destination target position) in the virtual reality space, a tracking error occurs because the movement target object reaches the given ideal posture. Thus, it is possible to reduce the situation where the hand holding the
〔変形例〕
以上、本発明を適用した実施形態の一例について説明したが、本発明を適用可能な形態は上記形態に限定されるものではなく適宜構成要素の追加・省略・変更を施すことができる。
(Modification)
As described above, an example of the embodiment to which the present invention is applied has been described. However, the form to which the present invention can be applied is not limited to the above-described form, and constituent elements can be appropriately added, omitted, or changed.
[その1]
例えば、上記実施形態では、VR体験をゲームとして説明したが、ゲームのジャンルや内容は適宜設定可能である。また、ゲームではなく、仮想の世界を旅したり探索するといったVR体験を提供するものであってもよい。
[Part 1]
For example, in the above embodiment, the VR experience was described as a game, but the genre and content of the game can be set as appropriate. Instead of a game, a VR experience such as traveling or searching in a virtual world may be provided.
[その2]
また、ゲームジャンルやゲーム内、VR体験を提供形態に応じて、プレーヤ(ユーザ)が仮想現実空間内で移動させる仮想オブジェクトの種類や状況は適宜設定可能である。仮想現実空間におけるモノとしての役割に応じて、その仮想現実空間におけるサイズや特性も適宜設定可能である。
[Part 2]
In addition, the type and situation of the virtual object that the player (user) moves in the virtual reality space can be appropriately set according to the game genre, the game, and the VR experience providing mode. Depending on the role of the object in the virtual reality space, its size and characteristics in the virtual reality space can be set as appropriate.
例えば、移動対象オブジェクトは仮想ケーキ14のままとし、移動目標位置Pmをプレーヤのアバターキャラクタの口に設定すれば、プレーヤが自らケーキを口に運んで食べるシーンに本発明を適用できる。
具体的には、イベント定義データ540(図13参照)の移動目標位置定義データ560では、設定対象オブジェクトID561にアバターキャラクタを示すIDを設定し、位置座標562にアバターキャラクタの口位置(例えば、右眼用仮想カメラ及び左眼用仮想カメラを両眼と見なして、そこから所定距離下方の位置)を設定する。
そして、アバターキャラクタ制御パラメータ値リスト720(図15参照)に、アバターキャラクタの口位置と口の向きとを含む仮想口制御パラメータ値を用意する。仮想口制御パラメータ値の口位置は、右眼用仮想カメラ又は左眼用仮想カメラに対して所定の相対位置に有るとし、仮想口制御パラメータ値の口の向きは、右眼用仮想カメラ又は左眼用仮想カメラの向きと同方向とすることができる。
For example, if the object to be moved is the
Specifically, in the movement target
Then, virtual mouth control parameter values including the mouth position and the mouth direction of the avatar character are prepared in the avatar character control parameter value list 720 (see FIG. 15). The mouth position of the virtual mouth control parameter value is at a predetermined relative position with respect to the right eye virtual camera or the left eye virtual camera, and the mouth direction of the virtual mouth control parameter value is the right eye virtual camera or the left eye virtual camera. The direction can be the same as the direction of the ophthalmic virtual camera.
また、移動対象オブジェクトの役割によっては、1つの移動オブジェクトに設定される移動目標位置Pmも複数設定してもよい。例えば、移動対象オブジェクトをテーブルに置かれている仮想スマートフォンとする場合、移動目標位置Pmをプレーヤのアバターキャラクタの右耳と左耳と顔の正面との3箇所に設定することができる。この場合、これら移動目標位置Pm毎に、当該移動目標位置Pmで仮想スマートフォンを使用するために理想とされる仮想スマートフォンの姿勢の分け方によって、理想状態設定区域30を単数又は複数用意すればよい。そして、理想状態では正面スピーカが耳元に向く状態を理想状態に設定すればよい。 Further, depending on the role of the moving object, a plurality of moving target positions Pm set for one moving object may be set. For example, when the object to be moved is a virtual smartphone placed on a table, the movement target position Pm can be set at three places of the right and left ears of the avatar character of the player and the front of the face. In this case, one or more ideal state setting areas 30 may be prepared for each of the movement target positions Pm, depending on how to divide the posture of the virtual smartphone that is ideal for using the virtual smartphone at the movement target position Pm. . Then, in the ideal state, the state where the front speaker faces the ear may be set to the ideal state.
またその他の例としては、移動対象オブジェクトを鍵とし、移動目標位置Pmをドアの鍵穴とすることもできる。この場合、鍵の理想状態は鍵の長手方向とドアの鍵穴の向きとが合った状態とすればよい。
もし、ゲーム世界の設定がファンタジーであれば、移動対象オブジェクトの元の姿は「妖精」であるが、移動目標位置Pmに接近するにつれて「鍵」に姿を変えてゆくといった表示モデルの変形要素も追加可能である。具体的には、移動体オブジェクトの仮想オブジェクト初期設定データ520(図12参照)のモデルデータ522に「妖精」の表示モデルを設定し、イベント対応設定データ530のイベント表示形態532に「鍵」の表示モデルを設定すればよい。そして、ステップS82及びS84(図17参照)にて、移動目標位置Pmに近づくにつれて、仮想オブジェクト制御パラメータ値リスト730(図15参照)の表示形態設定データ734を、「妖精」の表示モデルから「鍵」の表示モデルへ補正割合746に応じてモーフィングしたように変更すればよい。
As another example, the movement target object may be used as a key, and the movement target position Pm may be used as a keyhole of a door. In this case, the ideal state of the key may be a state in which the longitudinal direction of the key matches the direction of the keyhole of the door.
If the setting of the game world is fantasy, the original shape of the movement target object is “fairy”, but the shape changes to a “key” as it approaches the movement target position Pm. Can also be added. Specifically, the display model of “fairy” is set in the model data 522 of the virtual object initial setting data 520 (see FIG. 12) of the moving object, and the “key” is set in the
また、移動対象オブジェクトを赤ちゃんとして、移動目標位置Pmをその母親の胸元又は背中としてもよい。この場合、前者ならば理想状態は母親が赤ちゃんを抱きかかえ易い姿勢とすれば良いし、後者ならば母親が赤ちゃんをおんぶし易い姿勢とすればよい。 Alternatively, the movement target object may be a baby, and the movement target position Pm may be the mother's chest or back. In this case, in the former case, the ideal state may be a posture in which the mother easily holds the baby, and in the latter case, the mother may be in a posture in which the mother easily mounts the baby.
[その3]
また、上記実施形態では、移動対象オブジェクトの姿勢を補正する例を示したが、姿勢の補正を省略する構成も可能である。また、移動対象オブジェクトの移動目標位置Pmへの到達判定をコリジョン判定により実現することもできる。
[Part 3]
In the above embodiment, an example in which the posture of the movement target object is corrected has been described. However, a configuration in which the posture correction is omitted may be possible. In addition, the arrival determination of the movement target object to the movement target position Pm can be realized by the collision determination.
具体的には、例えば、RPGにおいて、プレーヤが仲間のNPCの傷を治療するイベントとする。その設定として、1)移動対象オブジェクトを、アバターキャラクタが手に持った治療魔法のポーションとし、2)移動目標位置PmをNPCの傷口を含むコリジョン判定エリア(移動目標エリア)として設定し、3)移動対象オブジェクトの表示モデルを、移動目標位置Pmに近づくと光の球に変形させる表示形態の変更設定とし、4)光の球(変形後の表示モデル)の大きさを元の治療魔法のポーションよりも大きく設定する。そして、5)移動対象オブジェクトの移動目標位置Pmへの到達判定を、光の球の表示モデルと、移動目標エリアとのコリジョン判定で行う。
この場合、トラッキングズレが生じていても、移動対象オブジェクトの位置や姿勢を補正しなくとも、光の球が傷口に近づけばイベントの目的は達せられることになる。つまり、VRにおけるユーザサポートを向上できる。
Specifically, for example, in the RPG, an event in which a player treats a wound of a fellow NPC is set. As the setting, 1) the object to be moved is a therapeutic magic potion held by the avatar character, 2) the movement target position Pm is set as a collision determination area (move target area) including the NPC wound, and 3) The display model of the object to be moved is changed to a display mode in which the display model is transformed into a light sphere when approaching the movement target position Pm. 4) The size of the light sphere (display model after deformation) is changed to the original treatment magic potion. Set larger than Then, 5) the arrival determination of the movement target object to the movement target position Pm is performed by collision determination between the display model of the light sphere and the movement target area.
In this case, even if a tracking error occurs, the purpose of the event can be achieved if the light sphere approaches the wound without correcting the position or orientation of the moving target object. That is, user support in VR can be improved.
[その4]
また、トラッキング技術は適宜選定可能であると述べたが、例えば図18で示すゲームシステム1000Bのように、プレーヤ2を正面から撮影するカメラや、プレーヤ2の正面各部までの距離を測定する測距センサを備えたセンサユニット70を用いて、プレーヤ2の骨格の動作を認識するタイプのジェスチャー認識技術を用いて、上記実施形態のヘッドトラッキング及びコントローラトラッキングの代用とすることができる。この場合、コントローラ8をトラッキングするというよりも、コントローラ8を具備する身体部位(図の例では手)を基準体としてトラッキングすることになる。
[Part 4]
In addition, it has been described that the tracking technique can be appropriately selected. However, for example, as in a
[その5]
また、上記実施形態では、移動対象オブジェクトが移動目標位置Pmに到達するまで制御パラメータ値を理想状態に近づけるように補正変更を行う構成であったが、ある程度まで移動目標位置Pmに接近すると、以降移動目標位置Pmに到達するまでを自動のアニメーション処理にて実現するとしてもよい。
[Part 5]
Further, in the above-described embodiment, the correction change is performed so that the control parameter value approaches the ideal state until the movement target object reaches the movement target position Pm. The process until the movement target position Pm is reached may be realized by automatic animation processing.
その場合、図19に示すように、ゲームシステム1000は、ゲーム進行制御部210に自動移動制御部228を追加すればよい。
In this case, as shown in FIG. 19, the
自動移動制御部228は、変更制御発動条件(上記実施形態におけるイベント開始条件542)が満たされた後、移動対象オブジェクト(移動される仮想オブジェクト)からその移動目標位置Pm(到達位置)までの距離が所与の近接条件を満たした場合に、自動的に当該仮想オブジェクトの位置を到達位置に移動させる自動移動制御を実行する。
After the change control activation condition (the
そして、図20に示すように、自動移動制御を実現するために理想状態設定区域30毎に自動移動定義データ580を追加する。
1つの自動移動定義データ580は、理想状態設定区域定義データ581と、近接条件582と、自動移動データ583とを含む。勿論、これら以外のデータも適宜含めることができる。
Then, as shown in FIG. 20, automatic
One automatic
近接条件582は、移動対象オブジェクトと移動目標位置Pmとの距離の閾値が設定される。その値は、移動対象オブジェクトのゲーム内における役割、大きさ、移動目標位置Pmの位置関係などに応じて適宜設定可能である。ただし、アニメーションが発動されると、プレーヤの目には、移動対象オブジェクトが移動目標位置Pmに勝手に動いていったかのように不自然な動きとして見える可能性があるので、設定する値には注意を要する。
In the
そして、図21に示すように、制御パラメータ値変更処理において、距離Lを算出したならば、近接条件582が満たされているかを判定するステップを追加する(ステップS67)。そして、満たされている場合にはステップS68〜S86をスキップし、代わりに、自動移動データ583に従った移動対象オブジェクトの自動移動、いわゆる自動アニメーションを実行する(ステップS69)。なお、自動移動制御を実行している間は、移動対象オブジェクトのコントローラ8への対応付けは解除し、コントローラ8への追従制御は行わないものとする。
Then, as shown in FIG. 21, when the distance L is calculated in the control parameter value changing process, a step of determining whether the
2…プレーヤ
6…HMD
7…トラッキング用カメラ
8…コントローラ
10…仮想恋人
12…仮想テーブル
14…仮想ケーキ
16…仮想フォーク
20…仮想手
30…理想状態設定区域
30e…警告区域
200…処理部
210…ゲーム進行制御部
212…仮想現実空間設定部
214…HMDトラッキング部
216…コントローラトラッキング部
218…追従制御部
220…到達位置設定部
222…到達状態設定部
224…変更制御部
226…キャラクタ制御部
228…自動移動制御部
500…記憶部
501…システムプログラム
503…ゲームプログラム
510…仮想現実空間初期設定データ
516…アバターキャラクタ初期設定データ
520…仮想オブジェクト初期設定データ
528…対応付け開始条件
530…イベント対応設定データ
533…イベント用動作
534…イベント用動作発動条件
540…イベント定義データ
544…移動対象オブジェクトIDリスト
560…移動目標位置定義データ
570…理想状態定義データ
571…理想状態設定区域定義データ
572…理想状態設定素材データ
573…理想制御パラメータ値導出関数リスト
574…指定理想制御パラメータ値リスト
575…補正割合定義データ
580…自動移動定義データ
582…近接条件
583…自動移動データ
700…プレイデータ
705…HMDトラッキングデータ
707…コントローラトラッキングデータ
710…仮想現実空間制御データ
720…アバターキャラクタ制御パラメータ値リスト
730…仮想オブジェクト制御パラメータ値リスト
731…位置座標
732…姿勢
733…動作制御パラメータ値
734…表示形態設定データ
740…移動目標位置座標
742…距離
744…理想制御パラメータ値リスト
746…補正割合
748…目標制御パラメータ値リスト
1000…ゲームシステム
1100…ゲーム制御装置
1150…制御基板
L…距離
Lc…補正制御発動条件距離
Pm…移動目標位置
f1…補正導出関数
2: Player 6: HMD
7 tracking
Claims (16)
前記ユーザの身体部位又は前記ユーザが具備するコントローラを基準体として前記実空間内の前記基準体をトラッキングする基準体トラッキング手段、
前記仮想現実空間において所与の仮想オブジェクトの位置及び姿勢を、前記基準体の位置及び姿勢に対応付けて追従させるように制御する追従制御手段、
前記仮想オブジェクトが前記仮想現実空間内の所与の位置又は所与のエリア(以下、包括して「到達位置」という)へ到達した際の到達姿勢を少なくとも含む到達状態を設定する到達状態設定手段、
前記仮想オブジェクトの前記到達位置への接近に応じて、前記仮想オブジェクトの姿勢を、前記追従制御手段により追従されている姿勢(以下「追従姿勢」という)から前記到達姿勢に変更する制御を行う変更制御手段、
として前記コンピュータシステムを機能させるためのプログラム。 A program for associating a virtual reality space and a real space with a computer system and displaying an image of the virtual reality space on an HMD (head mounted display) worn by a user,
Reference body tracking means for tracking the reference body in the real space using the body part of the user or a controller provided by the user as a reference body,
Tracking control means for controlling the position and orientation of a given virtual object in the virtual reality space so as to follow the position and orientation of the reference body,
A reaching state setting unit that sets a reaching state including at least a reaching posture when the virtual object reaches a given position or a given area in the virtual reality space (hereinafter, collectively referred to as an “arriving position”). ,
A change that performs control for changing the posture of the virtual object from the posture being followed by the following control means (hereinafter, referred to as “following posture”) to the reaching posture in accordance with the approach of the virtual object to the arrival position. Control means,
For causing the computer system to function as a computer.
前記変更制御手段は、前記仮想オブジェクトが前記到達位置へ接近する方位と、前記方位別の前記到達状態とに基づいて、変更する制御を行う、
請求項1に記載のプログラム。 The arrival state setting means sets the arrival state in association with each direction of the virtual object heading toward the arrival position,
The change control unit performs control to change based on the direction in which the virtual object approaches the arrival position and the arrival state for each direction.
The program according to claim 1.
請求項1又は2に記載のプログラム。 The change control means activates the control of the change when a distance from the virtual object to the arrival position satisfies a given change control activation condition,
The program according to claim 1.
として前記コンピュータシステムを更に機能させるための請求項3に記載のプログラム。 Automatic movement control for automatically moving the position of the virtual object to the arrival position when the distance from the virtual object to the arrival position satisfies a given proximity condition after satisfying the change control activation condition. means,
4. The program according to claim 3, further causing the computer system to function as a computer.
請求項1〜4の何れか一項に記載のプログラム。 The change control unit changes the posture of the virtual object so as to approach the arrival posture as the distance from the virtual object to the arrival position decreases.
The program according to claim 1.
前記変更制御手段は、前記仮想オブジェクトから前記到達位置までの距離が短くなるに従って、前記仮想オブジェクトの状態を前記到達状態に近づけるように変更する、
請求項5に記載のプログラム。 The reaching state includes a reaching operation when the virtual object reaches the reaching position and / or a reaching display form.
The change control unit changes the state of the virtual object closer to the arrival state as the distance from the virtual object to the arrival position decreases.
The program according to claim 5.
として前記コンピュータシステムを更に機能させるための請求項1〜6の何れか一項に記載のプログラム。 Arrival position setting means for setting the arrival position at a given part of a given character in the virtual reality space,
The program according to any one of claims 1 to 6, further causing the computer system to function as a computer.
請求項7に記載のプログラム。 The reaching state setting means sets the reaching posture according to an orientation of the part of the character;
The program according to claim 7.
前記ユーザの身体部位又は前記ユーザが具備するコントローラを基準体として前記実空間内の前記基準体をトラッキングする基準体トラッキング手段、
前記仮想現実空間において所与の仮想オブジェクトの位置及び姿勢を、前記基準体の位置及び姿勢に対応付けて追従させるように制御する追従制御手段、
前記仮想オブジェクトが前記仮想現実空間内の所与のキャラクタの所与の部位の位置(以下「到達位置」という)へ到達した際の前記仮想オブジェクトの表示形態を少なくとも含む到達状態を設定する到達状態設定手段、
前記仮想オブジェクトの前記到達位置への接近に応じて、前記仮想オブジェクトの状態を前記到達状態に変更する制御を行う変更制御手段、
として前記コンピュータシステムを機能させるためのプログラム。 A program for associating a virtual reality space and a real space with a computer system and displaying an image of the virtual reality space on an HMD (head mounted display) worn by a user,
Reference body tracking means for tracking the reference body in the real space using the body part of the user or a controller provided by the user as a reference body,
Tracking control means for controlling the position and orientation of a given virtual object in the virtual reality space so as to follow the position and orientation of the reference body,
A reaching state that sets a reaching state including at least a display form of the virtual object when the virtual object reaches a position of a given part of a given character in the virtual reality space (hereinafter, referred to as an “arriving position”). Setting means,
Change control means for performing control to change the state of the virtual object to the arrival state according to the approach of the virtual object to the arrival position,
For causing the computer system to function as a computer.
として前記コンピュータシステムを更に機能させるための請求項7〜9の何れか一項に記載のプログラム。 Character control means for controlling the position and / or attitude of the character in accordance with the approach of the virtual object to the arrival position;
The program according to any one of claims 7 to 9, further causing the computer system to function as a computer.
請求項7〜10の何れか一項に記載のプログラム。 The character is an avatar character of the user,
The program according to any one of claims 7 to 10.
前記HMDトラッキング手段によりトラッキングされた前記HMDの位置に基づいて、前記仮想現実空間における前記アバターキャラクタの前記所与の部位の位置を判定する手段、
として前記コンピュータシステムを更に機能させるための請求項11に記載のプログラム。 HMD tracking means for tracking the HMD in the real space,
Means for determining the position of the given part of the avatar character in the virtual reality space based on the position of the HMD tracked by the HMD tracking means;
The program according to claim 11, further causing the computer system to further function.
請求項1又は2に記載のプログラム。 The change control unit immediately changes the posture of the virtual object from the following posture to the reaching posture.
The program according to claim 1.
前記変更制御手段は、前記仮想オブジェクトの姿勢の変更に合わせて、前記仮想オブジェクトの状態を前記到達状態に変更する、
請求項13に記載のプログラム。 The reaching state includes a reaching operation when the virtual object reaches the reaching position and / or a reaching display form.
The change control unit changes the state of the virtual object to the arrival state according to a change in the posture of the virtual object.
The program according to claim 13.
前記ユーザの身体部位又は前記ユーザが具備するコントローラを基準体として前記実空間内の前記基準体をトラッキングする基準体トラッキング手段と、
前記仮想現実空間において所与の仮想オブジェクトの位置及び姿勢を、前記基準体の位置及び姿勢に対応付けて追従させるように制御する追従制御手段と、
前記仮想オブジェクトが前記仮想現実空間内の所与の位置又は所与のエリア(以下、包括して「到達位置」という)へ到達した際の到達姿勢を少なくとも含む到達状態を設定する到達状態設定手段と、
前記仮想オブジェクトの前記到達位置への接近に応じて、前記仮想オブジェクトの姿勢を、前記追従制御手段により追従されている姿勢(以下「追従姿勢」という)から前記到達姿勢に変更する制御を行う変更制御手段と、
を備えたコンピュータシステム。 A computer system for controlling a virtual reality space and a real space to display an image of the virtual reality space on an HMD (head mounted display) worn by a user,
Reference body tracking means for tracking the reference body in the real space using the body part of the user or a controller provided by the user as a reference body,
Follow-up control means for controlling the position and orientation of a given virtual object in the virtual reality space so as to follow the position and orientation of the reference body,
A reaching state setting unit that sets a reaching state including at least a reaching posture when the virtual object reaches a given position or a given area in the virtual reality space (hereinafter, collectively referred to as an “arriving position”). When,
A change that performs control to change the posture of the virtual object from a posture followed by the following control means (hereinafter, referred to as a “following posture”) to the reaching posture in accordance with the approach of the virtual object to the arrival position. Control means;
Computer system with
前記ユーザの身体部位又は前記ユーザが具備するコントローラを基準体として前記実空間内の前記基準体をトラッキングする基準体トラッキング手段と、
前記仮想現実空間において所与の仮想オブジェクトの位置及び姿勢を、前記基準体の位置及び姿勢に対応付けて追従させるように制御する追従制御手段と、
前記仮想オブジェクトが前記仮想現実空間内の所与のキャラクタの所与の部位の位置(以下「到達位置」という)へ到達した際の前記仮想オブジェクトの表示形態を少なくとも含む到達状態を設定する到達状態設定手段と、
前記仮想オブジェクトの前記到達位置への接近に応じて、前記仮想オブジェクトの状態を前記到達状態に変更する制御を行う変更制御手段と、
を備えたコンピュータシステム。 A computer system for controlling a virtual reality space and a real space to display an image of the virtual reality space on an HMD (head mounted display) worn by a user,
Reference body tracking means for tracking the reference body in the real space using the body part of the user or a controller provided by the user as a reference body,
Follow-up control means for controlling the position and orientation of a given virtual object in the virtual reality space so as to follow the position and orientation of the reference body,
A reaching state that sets a reaching state including at least a display form of the virtual object when the virtual object reaches a position of a given part of a given character in the virtual reality space (hereinafter, referred to as an “arriving position”). Setting means;
Change control means for performing control to change the state of the virtual object to the arrival state in accordance with the approach of the virtual object to the arrival position,
Computer system with
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016078395A JP6672047B2 (en) | 2016-04-08 | 2016-04-08 | Program and computer system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016078395A JP6672047B2 (en) | 2016-04-08 | 2016-04-08 | Program and computer system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017188041A JP2017188041A (en) | 2017-10-12 |
JP6672047B2 true JP6672047B2 (en) | 2020-03-25 |
Family
ID=60045632
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016078395A Active JP6672047B2 (en) | 2016-04-08 | 2016-04-08 | Program and computer system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6672047B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7111645B2 (en) * | 2019-03-28 | 2022-08-02 | 株式会社バーチャルキャスト | control program |
KR20220111918A (en) | 2021-02-03 | 2022-08-10 | 삼성전자주식회사 | Character animation motion contorl method and device |
CN114419099A (en) * | 2022-01-18 | 2022-04-29 | 腾讯科技(深圳)有限公司 | Method for capturing motion trail of virtual object to be rendered |
-
2016
- 2016-04-08 JP JP2016078395A patent/JP6672047B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017188041A (en) | 2017-10-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10713001B2 (en) | Control method and virtual reality experience provision apparatus | |
US10636212B2 (en) | Method for generating image to be displayed on head tracking type virtual reality head mounted display and image generation device | |
JP5800501B2 (en) | Display control program, display control apparatus, display control system, and display control method | |
US20150070274A1 (en) | Methods and systems for determining 6dof location and orientation of head-mounted display and associated user movements | |
CN109313511A (en) | The method of Virtual Space is provided, method, program and the recording medium of virtual experience are provided | |
JP6342038B1 (en) | Program for providing virtual space, information processing apparatus for executing the program, and method for providing virtual space | |
US9443340B2 (en) | Computer readable storage medium having stored thereon image processing program, image processing apparatus, image processing method, and image processing system | |
CN106873767B (en) | Operation control method and device for virtual reality application | |
KR20220012990A (en) | Gating Arm Gaze-Driven User Interface Elements for Artificial Reality Systems | |
CN109308115B (en) | Method and related device for displaying user movement in virtual reality system | |
US11049325B2 (en) | Information processing apparatus, information processing method, and program | |
CN107930119A (en) | Information processing method, device, electronic equipment and storage medium | |
JP6672047B2 (en) | Program and computer system | |
JP2019175323A (en) | Simulation system and program | |
JP6257825B1 (en) | Method for communicating via virtual space, program for causing computer to execute the method, and information processing apparatus for executing the program | |
JP2022125053A (en) | Boundary setting device, boundary setting method and program | |
JP6794390B2 (en) | Simulation system and program | |
JP2018171320A (en) | Simulation system and program | |
JP6918189B2 (en) | Simulation system and program | |
JP2015008987A (en) | Program and game device | |
JP2019020832A (en) | Information processing method, device, and program for causing computer to execute the method | |
JP5816435B2 (en) | Display control program, display control apparatus, display control system, and display control method | |
JP6728111B2 (en) | Method of providing virtual space, method of providing virtual experience, program, and recording medium | |
KR20200116380A (en) | Mobile interlocking VR device compatible to VR sports device | |
JP2016062428A (en) | Force sense presentation device, information terminal, force sense presentation method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190405 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191212 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200204 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200304 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6672047 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |