JP6672047B2 - Program and computer system - Google Patents

Program and computer system Download PDF

Info

Publication number
JP6672047B2
JP6672047B2 JP2016078395A JP2016078395A JP6672047B2 JP 6672047 B2 JP6672047 B2 JP 6672047B2 JP 2016078395 A JP2016078395 A JP 2016078395A JP 2016078395 A JP2016078395 A JP 2016078395A JP 6672047 B2 JP6672047 B2 JP 6672047B2
Authority
JP
Japan
Prior art keywords
virtual
virtual object
arrival
posture
reaching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016078395A
Other languages
Japanese (ja)
Other versions
JP2017188041A (en
Inventor
絢 玉置
絢 玉置
治由 山本
治由 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Namco Ltd
Bandai Namco Entertainment Inc
Original Assignee
Namco Ltd
Bandai Namco Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Ltd, Bandai Namco Entertainment Inc filed Critical Namco Ltd
Priority to JP2016078395A priority Critical patent/JP6672047B2/en
Publication of JP2017188041A publication Critical patent/JP2017188041A/en
Application granted granted Critical
Publication of JP6672047B2 publication Critical patent/JP6672047B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Position Input By Displaying (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、コンピュータシステムに、仮想現実空間と実空間とを対応づけて、ユーザが装着するHMD(ヘッドマウントディスプレイ)に仮想現実空間の画像を表示させるためのプログラム等に関する。   The present invention relates to a program for displaying an image of a virtual reality space on an HMD (head-mounted display) worn by a user by associating a virtual reality space and a real space with a computer system.

ユーザに立体視可能な映像とともに立体音響を提供して仮想現実空間に居るかのような体感をもたらす所謂VR(Virtual Reality)技術が公知である。   2. Description of the Related Art A so-called VR (Virtual Reality) technique that provides a user with a stereoscopic sound together with a stereoscopically visible image to give a user a sense of being in a virtual reality space is known.

特開平07−200162号公報JP 07-200622 A

さて、VRを実現するに当たって、HMDやプレーヤが手に持ったコントローラ(或いは手)の位置及び姿勢は常にトラッキングされている。この結果、HMDの位置及び姿勢は、仮想現実空間における仮想プレーヤの頭部の位置及び姿勢の追従に利用され、コントローラの位置及び姿勢は仮想プレーヤの手の位置及び姿勢の追従に利用される。そして、VR体験中、実空間のモノとそれに対応する仮想空間のモノとに追従ズレが生じないことが理想とされる。   In realizing VR, the position and orientation of the controller (or hand) held by the HMD or the player are always tracked. As a result, the position and posture of the HMD are used for tracking the position and posture of the head of the virtual player in the virtual reality space, and the position and posture of the controller are used for tracking the position and posture of the hand of the virtual player. Ideally, during the VR experience, there is no displacement between the real space object and the corresponding virtual space object.

しかし、実際には様々な理由によりトラッキングの誤差が生じてしまう。そして、VR体験においては、実空間のモノとそれに対応する仮想空間のモノとのズレは、リアリティを重んじるVR体験において大きな問題となる。   However, tracking errors actually occur for various reasons. In the VR experience, a gap between a real space thing and a corresponding virtual space thing becomes a serious problem in a VR experience that values realism.

例えば、恋人とのデートをテーマとしたVR体験において、口を開いて待っている恋人の口元へケーキを運んで食べさせるシーンがあるとする。恋人への心象を左右する重要なシーンであるが、要求されているのはケーキを口元へ運ぶ至って簡単な動作である。しかし、トラッキングのズレが生じていると、移動対象(ケーキ)を移動目標位置(恋人の口元)へ、正しい姿勢(口に入りやすいケーキの向き)となるように移動させるために不自然に手首を捻らなければならず簡単なはずの動作が困難となる。この結果、それまで気にならなかったズレがことさら目立って感じられるようになり、それ以降のVR体験のリアリティを大きく損ねることになる。また、当該シーンがVR体験のプレイ評価に係るシーンであれば、当然プレイ評価も損なわれてしまうかもしれない。   For example, suppose that in a VR experience on the theme of a date with a lover, there is a scene in which a mouth is opened and a cake is carried to the mouth of the waiting lover and eaten. It is an important scene that affects the image of the lover, but what is required is a simple operation that brings the cake to the mouth. However, if a tracking error has occurred, the wrist is moved unnaturally to move the moving object (cake) to the movement target position (mouth of the lover) so as to have a correct posture (the direction of the cake that is easy to enter the mouth). Must be twisted, and the operation that should be simple becomes difficult. As a result, the gap that has not been noticed until then becomes more noticeable, which greatly impairs the reality of the VR experience thereafter. Further, if the scene is a scene related to the play evaluation of the VR experience, the play evaluation may naturally be impaired.

これはほんの一例に過ぎない。一時的とはいえ、VR体験中のユーザ(プレーヤ)に、トラッキングのズレを感じさせる場面が生じると、いかにリアルであるかを大切にするVR体験にとっては、そのVR体験の評価を大きく損なう原因となってしまうだろう。   This is just one example. Even if it is temporary, if a situation occurs in which the user (player) who is experiencing the VR experience shifts in tracking, a VR experience that values how realistic the VR experience will greatly impair the evaluation of the VR experience Would be.

本発明は、VRにおけるユーザサポートを向上するための技術を提供すること、換言すると、VRにおける没入感を阻害させない技術を提供することを目的として考案されたものである。   The present invention has been devised for the purpose of providing a technology for improving user support in a VR, in other words, providing a technology that does not hinder immersion in the VR.

上述した課題を解決するための第1の発明は、コンピュータシステムに、仮想現実空間と実空間とを対応づけて、ユーザが装着するHMD(ヘッドマウントディスプレイ)に前記仮想現実空間の画像を表示させるためのプログラムであって、
前記ユーザの身体部位又は前記ユーザが具備するコントローラを基準体として前記実空間内の前記基準体をトラッキングする基準体トラッキング手段(例えば、図10の処理部200、ゲーム進行制御部210、コントローラトラッキング部216、図11のコントローラトラッキングデータ707、図16のステップS6)、
前記仮想現実空間において所与の仮想オブジェクト(例えば、図3の仮想ケーキ14)の位置及び姿勢を、前記基準体の位置及び姿勢に対応付けて追従させるように制御する追従制御手段(例えば、図10の処理部200、ゲーム進行制御部210、追従制御部218、図16のステップS38)、
前記仮想オブジェクトが前記仮想現実空間内の所与の位置又は所与のエリア(以下、包括して「到達位置」という;例えば、図7の移動目標位置Pm)へ到達した際の到達姿勢を少なくとも含む到達状態を設定する到達状態設定手段(例えば、図10の処理部200、ゲーム進行制御部210、到達状態設定部222、図14の理想状態定義データ570、図17のステップS64)、
前記仮想オブジェクトの前記到達位置への接近に応じて、前記仮想オブジェクトの姿勢を、前記追従制御手段により追従されている姿勢(以下「追従姿勢」という)から前記到達姿勢に変更する制御を行う変更制御手段(例えば、図10の処理部200、ゲーム進行制御部210、変更制御部224、図17のステップS66〜S86)、
として前記コンピュータシステムを機能させるためのプログラムである。
According to a first aspect of the invention for solving the above-described problem, a virtual reality space is associated with a real space in a computer system, and an image of the virtual reality space is displayed on an HMD (head mounted display) worn by a user. Program for
Reference body tracking means for tracking the reference body in the real space using the body part of the user or a controller provided by the user as a reference body (for example, the processing unit 200, the game progress control unit 210, the controller tracking unit in FIG. 10) 216, controller tracking data 707 in FIG. 11, step S6 in FIG. 16,
Follow-up control means (for example, FIG. 3) that controls the position and posture of a given virtual object (for example, the virtual cake 14 in FIG. 3) in the virtual reality space so as to follow the position and posture of the reference body. 10, processing unit 200, game progress control unit 210, follow-up control unit 218, step S38 in FIG. 16,
At least the arrival posture when the virtual object reaches a given position or a given area in the virtual reality space (hereinafter, collectively referred to as an “arrival position”; for example, a movement target position Pm in FIG. 7). Reaching state setting means for setting the reaching state including (for example, the processing unit 200 in FIG. 10, the game progress control unit 210, the reaching state setting unit 222, the ideal state definition data 570 in FIG. 14, the step S64 in FIG. 17),
A change that performs control for changing the posture of the virtual object from the posture being followed by the following control means (hereinafter, referred to as “following posture”) to the reaching posture in accordance with the approach of the virtual object to the arrival position. Control means (for example, processing unit 200, game progress control unit 210, change control unit 224 in FIG. 10, steps S66 to S86 in FIG. 17),
As a program for causing the computer system to function.

第1の発明によれば、基準体に追従制御される仮想オブジェクトが到達位置に接近するのに応じて、その姿勢を、設定された到達姿勢に自動で変更することができる。よって、VRにおけるユーザサポートを向上させること、換言するとVRにおける没入感を阻害させない技術を提供することができる。   According to the first aspect, as the virtual object controlled to follow the reference body approaches the arrival position, the posture can be automatically changed to the set arrival posture. Therefore, it is possible to improve the user support in the VR, in other words, to provide a technology that does not hinder the sense of immersion in the VR.

第2の発明は、前記到達状態設定手段が、前記到達位置に向かう前記仮想オブジェクトの方位別(例えば、図6の理想状態設定区域30)に前記到達状態を対応付けて設定し、前記変更制御手段は、前記仮想オブジェクトが前記到達位置へ接近する方位と、前記方位別の前記到達状態とに基づいて、変更する制御を行う第1の発明のプログラムである。   According to a second aspect, the arrival state setting means sets the arrival state in association with each direction (for example, the ideal state setting area 30 in FIG. 6) of the virtual object heading toward the arrival position, and sets the change control. The means is a program according to a first aspect of the present invention, wherein control is performed to change the virtual object based on the direction in which the virtual object approaches the arrival position and the arrival state for each direction.

第2の発明によれば、仮想オブジェクトが到達位置へ向けてどの方向から接近してくるかに応じて細かく到達状態を設定することができる。よって、仮想オブジェクトの到達状態をより自然に見せることができるようになる。   According to the second aspect, the arrival state can be finely set according to the direction from which the virtual object approaches the arrival position. Therefore, the arrival state of the virtual object can be made to look more natural.

第3の発明は、前記変更制御手段が、前記仮想オブジェクトから前記到達位置までの距離が所与の変更制御発動条件(例えば、図9の補正制御発動条件距離Lc)を満たした場合に前記変更の制御を発動する、第1又は第2の発明のプログラムである。   According to a third aspect, the change control means performs the change when a distance from the virtual object to the arrival position satisfies a given change control activation condition (for example, a correction control activation condition distance Lc in FIG. 9). Is a program according to the first or second aspect of the present invention, which activates the control of the invention.

第3の発明によれば、変更制御の影響を必要な場面に限定し、それ以外では基本的には基準体の動きに仮想オブジェクトをそのまま追従させることで、VR体験の操作感と、ユーザサポートとを上手く両立させることができる。   According to the third aspect, the effect of the change control is limited to a necessary scene, and in other cases, the virtual object basically follows the movement of the reference body as it is, so that the operational feeling of the VR experience and the user support Can be well balanced.

第4の発明は、前記変更制御発動条件を満たした後、前記仮想オブジェクトから前記到達位置までの距離が所与の近接条件を満たした場合に、自動的に前記仮想オブジェクトの位置を前記到達位置に移動させる自動移動制御手段(例えば、図19の自動移動制御部228、図21のステップS67、S69)、として前記コンピュータシステムを更に機能させるための第3の発明のプログラム。   In a fourth aspect, after the change control activation condition is satisfied, when the distance from the virtual object to the arrival position satisfies a given proximity condition, the position of the virtual object is automatically changed to the arrival position. A program according to a third invention for causing the computer system to further function as automatic movement control means (for example, the automatic movement control unit 228 in FIG. 19, steps S67 and S69 in FIG. 21).

第4の発明によれば、ある程度仮想オブジェクトが到達位置に接近してからは自動で仮想オブジェクトを到達位置まで移動させることができる。   According to the fourth aspect, after the virtual object has approached the arrival position to some extent, the virtual object can be automatically moved to the arrival position.

第5の発明は、前記変更制御手段が、前記仮想オブジェクトから前記到達位置までの距離が短くなるに従って、前記仮想オブジェクトの姿勢を前記到達姿勢に近づけるように変更する、第1〜第4の何れか発明のプログラムである。   In a fifth aspect, the change control means changes the posture of the virtual object so as to approach the arrival posture as the distance from the virtual object to the arrival position decreases. Or the program of the invention.

第5の発明によれば、徐々に到達姿勢に近づけるように変更が行われるので、ユーザサポートの介入を円滑かつ自然に実現できる。   According to the fifth aspect, since the change is made so as to gradually approach the reaching posture, the intervention of the user support can be smoothly and naturally realized.

第6の発明は、前記到達状態には、前記仮想オブジェクトが前記到達位置に到達した際の到達時動作、及び/又は、到達時表示形態が含まれ、前記変更制御手段は、前記仮想オブジェクトから前記到達位置までの距離が短くなるに従って、前記仮想オブジェクトの状態を前記到達状態に近づけるように変更する、第5の発明のプログラムである。   In a sixth aspect, the arrival state includes an operation at the time of arrival of the virtual object at the arrival position and / or a display mode at the time of arrival. A program according to a fifth aspect of the present invention, wherein the state of the virtual object is changed so as to approach the arrival state as the distance to the arrival position decreases.

ここで言う「到達時動作」には、例えば、振動や拡縮、回転なども含めることができる。またここで言う「到達時表示形態」には、仮想オブジェクトの外観、表示サイズ、表示色、明度、透明度、を含めることができる。
第6の発明によれば、到達状態に到達時の動作や表示形態も設定できるようになるので、ユーザサポートを応用するシチュエーションを多様化できる。
The “operation at the time of arrival” referred to here may include, for example, vibration, enlargement / reduction, rotation, and the like. In addition, the “display mode at arrival” referred to here can include the appearance, display size, display color, brightness, and transparency of the virtual object.
According to the sixth aspect, the operation and the display form at the time of reaching the arrival state can be set, so that the situation to which the user support is applied can be diversified.

第7の発明は、前記仮想現実空間内の所与のキャラクタの所与の部位に、前記到達位置を設定する到達位置設定手段(例えば、図19の到達位置設定部220、図17のステップS60)、として前記コンピュータシステムを更に機能させるための第1〜第6の何れかの発明のプログラムである。   A seventh invention is an arrival position setting means (for example, an arrival position setting unit 220 in FIG. 19 and a step S60 in FIG. 17) for setting the arrival position at a given part of a given character in the virtual reality space. ) Is a program according to any one of the first to sixth inventions for causing the computer system to further function.

第7の発明によれば、ユーザが仮想現実空間に存在するキャラクタに仮想オブジェクトを近づけるといったシチュエーションへの応用が可能になる。   According to the seventh aspect, application to a situation where a user approaches a virtual object to a character existing in a virtual reality space becomes possible.

第8の発明は、前記到達状態設定手段が、前記キャラクタの前記部位の向きに応じて、前記到達姿勢を設定する、第7の発明のプログラムである。   An eighth invention is the program according to the seventh invention, wherein the reaching state setting means sets the reaching posture according to an orientation of the part of the character.

第8の発明によれば、到達位置が設定されたキャラクタの部位の向きに応じて到達姿勢を決定することができる。   According to the eighth aspect, the reaching posture can be determined according to the direction of the part of the character for which the reaching position is set.

第9の発明は、コンピュータシステムに、仮想現実空間と実空間とを対応づけて、ユーザが装着するHMD(ヘッドマウントディスプレイ)に前記仮想現実空間の画像を表示させるためのプログラムであって、前記ユーザの身体部位又は前記ユーザが具備するコントローラを基準体として前記実空間内の前記基準体をトラッキングする基準体トラッキング手段、前記仮想現実空間において所与の仮想オブジェクトの位置及び姿勢を、前記基準体の位置及び姿勢に対応付けて追従させるように制御する追従制御手段、前記仮想オブジェクトが前記仮想現実空間内の所与のキャラクタの所与の部位の位置(以下「到達位置」という)へ到達した際の前記仮想オブジェクトの表示形態を少なくとも含む到達状態を設定する到達状態設定手段、前記仮想オブジェクトの前記到達位置への接近に応じて、前記仮想オブジェクトの状態を前記到達状態に変更する制御を行う変更制御手段、として前記コンピュータシステムを機能させるためのプログラムである。   A ninth invention is a program for causing a computer system to associate a virtual reality space with a real space and display an image of the virtual reality space on an HMD (head-mounted display) worn by a user. A reference body tracking means for tracking the reference body in the real space using a body part of a user or a controller provided by the user as a reference body, and a position and orientation of a given virtual object in the virtual reality space; Tracking control means for controlling to follow in accordance with the position and posture of the virtual object, wherein the virtual object has reached a position of a given part of a given character in the virtual reality space (hereinafter, referred to as an “arrival position”) Arrival state setting means for setting an arrival state including at least a display form of the virtual object at the time of Depending on the approach to the arrival position of the object is a program for causing the computer system to the state of the virtual object change control means for performing control to change the arrival status, as.

第9の発明によれば、仮想オブジェクトの表示形態(表示モデル、表示サイズ、表示色、明度、透明度、を含む)を変更することによって、VRにおけるユーザサポートを向上するための技術を提供すること、換言すると、VRにおける没入感を阻害させない技術を提供できる。   According to the ninth aspect, there is provided a technique for improving user support in VR by changing a display mode (including a display model, a display size, a display color, brightness, and transparency) of a virtual object. In other words, it is possible to provide a technique that does not hinder the sense of immersion in VR.

具体的な例を挙げると、例えば、到達位置がエリアとして設定され、仮想オブジェクトの表示モデルが到達位置に近づいた場合、想定されるトラッキングズレを許容するほどの大きさを有する別の表示モデルに変更する。そして、仮想オブジェクトの到達位置への到達判定を、変更された表示モデルと、到達位置のエリアとのコリジョン判定で行うとすると、トラッキングズレが生じていてもトラッキングズレに起因する違和感をユーザに与えずに済ませることができる。   To give a specific example, for example, when the arrival position is set as an area, and the display model of the virtual object approaches the arrival position, another display model having a size large enough to allow an assumed tracking shift change. Then, when the arrival determination of the virtual object at the arrival position is performed by collision determination between the changed display model and the area of the arrival position, even if the tracking deviation occurs, the user may feel uncomfortable due to the tracking deviation. It can be done without

第10の発明は、前記仮想オブジェクトの前記到達位置への接近に応じて、前記キャラクタの位置及び/又は姿勢を制御するキャラクタ制御手段(例えば、図10のキャラクタ制御部226、図12のイベント対応設定データ530、イベント用動作533、図17のステップS102〜S104)、として前記コンピュータシステムを更に機能させるための第7〜第9の何れかの発明のプログラムである。   A tenth aspect of the present invention is a character control means (for example, a character control unit 226 shown in FIG. 10 and an event handling unit shown in FIG. 12) for controlling the position and / or posture of the character in accordance with the approach of the virtual object to the arrival position. The program according to any one of the seventh to ninth aspects of the present invention for causing the computer system to further function as the setting data 530, the event operation 533, and steps S102 to S104 in FIG.

第10の発明によれば、仮想オブジェクトの接近に応じて、到達位置が設定されたキャラクタの側の位置や姿勢も変化させることができる。よって、より複雑なシーンへの応用が可能になる。   According to the tenth aspect, the position and posture of the character on which the arrival position is set can be changed in accordance with the approach of the virtual object. Therefore, application to more complicated scenes becomes possible.

第11の発明は、前記キャラクタが、前記ユーザのアバターキャラクタである、第7〜第10の何れかの発明のプログラムである。   An eleventh invention is the program according to any one of the seventh to tenth inventions, wherein the character is an avatar character of the user.

第11の発明によれば、ユーザが仮想現実空間における自身に対して仮想オブジェクトを近づけるといったシチュエーションにもユーザサポートを応用できるようになる。   According to the eleventh aspect, the user support can be applied to the situation where the user moves the virtual object closer to the user in the virtual reality space.

第12の発明は、前記実空間内の前記HMDをトラッキングするHMDトラッキング手段(例えば、図10のHMDトラッキング部214、図16のステップS6)、前記HMDトラッキング手段によりトラッキングされた前記HMDの位置に基づいて、前記仮想現実空間における前記アバターキャラクタの前記所与の部位の位置を判定する手段(例えば、図10の追従制御部218、図15のアバターキャラクタ制御パラメータ値リスト720、図16のステップS8)、として前記コンピュータシステムを更に機能させるための第11の発明のプログラムである。   A twelfth invention is directed to an HMD tracking unit (for example, the HMD tracking unit 214 in FIG. 10, step S6 in FIG. 16) for tracking the HMD in the real space, and a position of the HMD tracked by the HMD tracking unit. Means for determining the position of the given part of the avatar character in the virtual reality space (for example, the following control unit 218 in FIG. 10, the avatar character control parameter value list 720 in FIG. 15, and the step S8 in FIG. 16) ) Is a program according to an eleventh invention for causing the computer system to further function.

第12の発明によれば、アバターキャラクタの所与の部位の位置を判定できるようになるので、例えば到達位置をアバターキャラクタの一部に設定することも可能になる。   According to the twelfth aspect, the position of a given part of the avatar character can be determined. For example, it is possible to set the arrival position to a part of the avatar character.

第13の発明は、前記変更制御手段が、前記仮想オブジェクトの姿勢を、前記追従姿勢から前記到達姿勢に直ちに変更する、第1又は第2の発明のプログラムである。   A thirteenth invention is the program according to the first or second invention, wherein the change control means changes the posture of the virtual object from the following posture to the reached posture immediately.

第13の発明によれば、仮想オブジェクトの姿勢を追従姿勢から到達姿勢に直ちに変更することが可能となる。このため、例えば、注意喚起や警告といった利用方法に応用できるようになる。   According to the thirteenth aspect, it is possible to immediately change the posture of the virtual object from the following posture to the reached posture. Therefore, for example, it can be applied to usage methods such as alerting and warning.

第14の発明は、前記到達状態には、前記仮想オブジェクトが前記到達位置に到達した際の到達時動作、及び/又は、到達時表示形態が含まれ、前記変更制御手段は、前記仮想オブジェクトの姿勢の変更に合わせて、前記仮想オブジェクトの状態を前記到達状態に変更する、第13の発明のプログラムである。   In a fourteenth aspect, the reaching state includes an operation at the time of arrival of the virtual object at the arrival position and / or a display form at the time of arrival. A program according to a thirteenth invention, wherein a state of the virtual object is changed to the reached state in accordance with a change in posture.

第14の発明によれば、到達位置に到達した際の仮想オブジェクトの動作や表示形態も直ちに変更できるようになる。   According to the fourteenth aspect, the operation and display mode of the virtual object when reaching the arrival position can be changed immediately.

第15の発明は、仮想現実空間と実空間とを対応づけて、ユーザが装着するHMD(ヘッドマウントディスプレイ)に前記仮想現実空間の画像を表示する制御を行うコンピュータシステムであって、
前記ユーザの身体部位又は前記ユーザが具備するコントローラを基準体として前記実空間内の前記基準体をトラッキングする基準体トラッキング手段(例えば、図1のHMD6、コントローラ8、トラッキング用カメラ7、ゲーム制御装置1100、図10の処理部200、ゲーム進行制御部210、コントローラトラッキング部216、図11のコントローラトラッキングデータ707、図16のステップS6)と、
前記仮想現実空間において所与の仮想オブジェクトの位置及び姿勢を、前記基準体の位置及び姿勢に対応付けて追従させるように制御する追従制御手段(例えば、図1のゲーム制御装置1100、図10の処理部200、ゲーム進行制御部210、追従制御部218、図16のステップS38)と、
前記仮想オブジェクトが前記仮想現実空間内の所与の位置又は所与のエリア(以下、包括して「到達位置」という)へ到達した際の到達姿勢を少なくとも含む到達状態を設定する到達状態設定手段(例えば、図1のゲーム制御装置1100、図10の処理部200、ゲーム進行制御部210、到達状態設定部222、図14の理想状態定義データ570、図17のステップS64)と、
前記仮想オブジェクトの前記到達位置への接近に応じて、前記仮想オブジェクトの姿勢を、前記追従制御手段により追従されている姿勢(以下「追従姿勢」という)から前記到達姿勢に変更する制御を行う変更制御手段(例えば、図1のゲーム制御装置1100、図10の処理部200、ゲーム進行制御部210、変更制御部224、図17のステップS66〜S86)と、を備えたコンピュータシステムである。
A fifteenth invention is a computer system that performs control for displaying an image of the virtual reality space on an HMD (head-mounted display) worn by a user by associating the virtual reality space with the real space,
Reference body tracking means for tracking the reference body in the real space using the body part of the user or a controller provided by the user as a reference body (for example, the HMD 6, the controller 8, the tracking camera 7, and the game control device in FIG. 1). 1100, the processing unit 200 in FIG. 10, the game progress control unit 210, the controller tracking unit 216, the controller tracking data 707 in FIG. 11, the step S6 in FIG.
Following control means (for example, the game control device 1100 in FIG. 1 and the control device in FIG. 10) that controls the position and orientation of a given virtual object in the virtual reality space so as to follow the position and orientation of the reference body. The processing unit 200, the game progress control unit 210, the follow-up control unit 218, and step S38 in FIG.
A reaching state setting unit that sets a reaching state including at least a reaching posture when the virtual object reaches a given position or a given area in the virtual reality space (hereinafter, collectively referred to as an “arriving position”). (For example, the game control device 1100 in FIG. 1, the processing unit 200 in FIG. 10, the game progress control unit 210, the reaching state setting unit 222, the ideal state definition data 570 in FIG. 14, the step S64 in FIG. 17),
A change that performs control for changing the posture of the virtual object from the posture being followed by the following control means (hereinafter, referred to as “following posture”) to the reaching posture in accordance with the approach of the virtual object to the arrival position. The computer system includes control means (for example, the game control device 1100 in FIG. 1, the processing unit 200 in FIG. 10, the game progress control unit 210, the change control unit 224, and steps S66 to S86 in FIG. 17).

第15の発明によれば、第1の発明と同様の作用効果を有するコンピュータシステムを実現できる。なお、ここで言う「コンピュータシステム」は、単独のコンピュータに限らず、複数のコンピュータが通信接続された形態であってもよい。   According to the fifteenth aspect, a computer system having the same functions and effects as the first aspect can be realized. The “computer system” here is not limited to a single computer, but may be a form in which a plurality of computers are connected for communication.

第16の発明は、仮想現実空間と実空間とを対応づけて、ユーザが装着するHMD(ヘッドマウントディスプレイ)に前記仮想現実空間の画像を表示する制御を行うコンピュータシステムであって、前記ユーザの身体部位又は前記ユーザが具備するコントローラを基準体として前記実空間内の前記基準体をトラッキングする基準体トラッキング手段と、前記仮想現実空間において所与の仮想オブジェクトの位置及び姿勢を、前記基準体の位置及び姿勢に対応付けて追従させるように制御する追従制御手段と、前記仮想オブジェクトが前記仮想現実空間内の所与のキャラクタの所与の部位の位置(以下「到達位置」という)へ到達した際の前記仮想オブジェクトの表示形態を少なくとも含む到達状態を設定する到達状態設定手段と、前記仮想オブジェクトの前記到達位置への接近に応じて、前記仮想オブジェクトの状態を前記到達状態に変更する制御を行う変更制御手段と、を備えたコンピュータシステムである。   A sixteenth invention is a computer system which controls the display of the image of the virtual reality space on an HMD (head mounted display) worn by the user by associating the virtual reality space with the real space. Reference body tracking means for tracking the reference body in the real space using a body part or a controller provided by the user as a reference body, and the position and orientation of a given virtual object in the virtual reality space, Follow-up control means for controlling to follow in association with a position and a posture, and the virtual object has reached a position of a given part of a given character in the virtual reality space (hereinafter referred to as an "arrival position") Arrival state setting means for setting an arrival state including at least a display form of the virtual object at the time of Depending on the approach to the arrival position of the object, and change control means for controlling to change the state of the virtual object to the arrival status is a computer system comprising a.

第16の発明によれば、第9の発明と同様の作用効果を有するコンピュータシステムを実現できる。なお、ここで言う「コンピュータシステム」は、単独のコンピュータに限らず、複数のコンピュータが通信接続された形態であってもよい。   According to the sixteenth aspect, a computer system having the same functions and effects as the ninth aspect can be realized. The “computer system” here is not limited to a single computer, but may be a form in which a plurality of computers are connected for communication.

ゲームシステム(仮想現実体験提供装置)の構成の一例を示す図。The figure which shows an example of a structure of a game system (virtual reality experience provision apparatus). コントローラの構成例を示す図。The figure which shows the structural example of a controller. ユーザサポートの前提を説明するための図。The figure for explaining the premise of user support. ユーザサポートの原理を説明するための図(その1)。FIG. 1 is a diagram for explaining the principle of user support (part 1). ユーザサポートの原理を説明するための図(その2)。The figure (the 2) for explaining the principle of user support. 理想状態を設定する区域の例について説明するための概念図。FIG. 4 is a conceptual diagram for describing an example of an area where an ideal state is set. 理想状態の設定概念と補正割合の変化の例を説明するための図(その1)。FIG. 9 is a diagram (part 1) for explaining an example of a concept of setting an ideal state and a change in a correction ratio. 理想状態の設定概念と補正割合の変化の例を説明するための図(その2)。FIG. 11 is a diagram (part 2) for explaining an example of a concept of setting an ideal state and a change in a correction ratio. 移動対象オブジェクトの補正の仕方について説明するための概念図。FIG. 3 is a conceptual diagram for explaining a method of correcting a movement target object. ゲームシステムの機能構成例を示す機能ブロック図。FIG. 2 is a functional block diagram showing a functional configuration example of the game system. 記憶部が記憶するプログラムやデータの例を示す図。FIG. 4 is a diagram illustrating an example of programs and data stored in a storage unit. 仮想オブジェクト初期設定データのデータ構成例を示す図。FIG. 3 is a diagram illustrating a data configuration example of virtual object initial setting data. ベント定義データのデータ構成例を示す図。The figure which shows the data structural example of vent definition data. 理想状態定義データのデータ構成例を示す図。The figure which shows the data structural example of ideal state definition data. 仮想現実空間制御データのデータ構成例を示す図。The figure which shows the data structural example of virtual reality space control data. ゲームシステムにおける処理の流れを説明するためのフローチャート。5 is a flowchart for explaining the flow of processing in the game system. 制御パラメータ値返納処理の流れを説明するためのフローチャート。9 is a flowchart for explaining the flow of a control parameter value return process. ゲームシステムのシステム構成の変形例を示す図。The figure which shows the modification of the system configuration of a game system. ゲームシステムの機能構成の変形例を示す機能ブロック図。FIG. 9 is a functional block diagram showing a modification of the functional configuration of the game system. イベント定義データのデータ構成の変形例を示す図。The figure which shows the modification of the data structure of event definition data. 制御パラメータ値変更処理の変形例における処理の流れを説明するためのフローチャート。9 is a flowchart for explaining a processing flow in a modified example of the control parameter value changing processing.

図1は、本実施形態におけるゲームシステム1000の構成の一例を示す図である。本実施形態のゲームシステム1000は、仮想現実体験(VR体験)をユーザに提供する仮想現実体験提供装置である。ゲームシステム1000は、プレーヤがヘッドトラッキング機能付きのVR(Virtual Reality)型のHMDを頭部に装着するとともにコントローラを把持して、実空間である所定のプレイフィールド内を移動しながらプレイするゲームを実行するためにデザインされたコンピュータシステムである。   FIG. 1 is a diagram illustrating an example of a configuration of a game system 1000 according to the present embodiment. The game system 1000 according to the present embodiment is a virtual reality experience providing apparatus that provides a user with a virtual reality experience (VR experience). The game system 1000 implements a game in which a player wears a VR (Virtual Reality) type HMD with a head tracking function on a head and holds a controller to play while moving in a predetermined play field which is a real space. A computer system designed to run.

具体的には、ゲームシステム1000は、保護壁3と保護シート4とで画成されたプレイフィールドと、プレーヤ2が頭部に装着するヘッドフォン5及びHMD6と、プレーヤ2が把持するコントローラ8と、HMD6やコントローラ8の位置や姿勢のトラッキングをするための複数のトラッキング用カメラ7と、これら(HMD6・コントローラ8・トラッキング用カメラ7)とデータ通信可能に接続されたゲーム制御装置1100と、を備える。   Specifically, the game system 1000 includes a play field defined by the protection wall 3 and the protection sheet 4, the headphones 5 and the HMD 6 worn by the player 2 on the head, the controller 8 gripped by the player 2, A plurality of tracking cameras 7 for tracking the positions and postures of the HMD 6 and the controller 8 and a game control device 1100 connected to these (the HMD 6, the controller 8, and the tracking camera 7) so as to be able to perform data communication are provided. .

本実施形態のゲームシステム1000はシングルプレイ用を想定しており、保護壁3・保護シート4・HMD6・コントローラ8・トラッキング用カメラ7のセット(図示の例では3台で1セット)が1組備えられているとする。しかし、ゲームシステム1000を、マルチプレイ用として運用する場合には、適宜、それらを1組として、複数組をゲーム制御装置1100に接続すればよい。   The game system 1000 according to the present embodiment is intended for single play, and includes one set of a protective wall 3, a protective sheet 4, an HMD 6, a controller 8, and a tracking camera 7 (three sets in the illustrated example). It is assumed that it is provided. However, when operating the game system 1000 for multi-play, a plurality of sets may be connected to the game control device 1100 as appropriate.

なお、ゲーム操作のデザインによっては1人当たりのコントローラ8は複数でもよい。また、1セットとされるトラッキング用カメラ7の台数や配置位置関係は、採用するトラッキング技術によって適宜設定可能であり、図示の例に限定されるものではない。例えば、マルチプレイであっても、トラッキング用カメラ7のセットを兼用とし、トラッキング用カメラ7のセットは1組で実現するとしてもよい。   Note that there may be a plurality of controllers 8 per person depending on the design of the game operation. Further, the number and arrangement positional relationship of the tracking cameras 7 as one set can be appropriately set according to the tracking technology to be adopted, and are not limited to the illustrated example. For example, even in multi-play, a set of the tracking cameras 7 may be shared, and the set of the tracking cameras 7 may be realized as one set.

保護壁3は、HMD6を装着したプレーヤ2が衝突しても怪我をしないように表面を弾性体で覆った壁体である。柵体やネットでもよい。   The protective wall 3 is a wall whose surface is covered with an elastic body so that the player 2 wearing the HMD 6 does not get injured even if a collision occurs. A fence or a net may be used.

保護シート4は、HMD6を装着したプレーヤ2が転倒しても怪我をしないように床面を被う保護材である。例えば、人が立つなどの静的荷重に対しては適度な硬さを示すが、衝撃は適切に吸収する弾性体シートである。なお、保護シート4の代わりに、プレーヤ2にヘルメットの装着や、肩・肘・膝などへの保護パッドの装着を義務づけるとしてもよい。   The protection sheet 4 is a protection material that covers the floor surface so that the player 2 wearing the HMD 6 does not get injured if the player 2 falls down. For example, the elastic sheet has an appropriate hardness with respect to a static load such as a person standing, but appropriately absorbs an impact. Instead of the protection sheet 4, the player 2 may be required to wear a helmet, or to wear a protection pad on a shoulder, elbow, knee, or the like.

ヘッドフォン5は、プレーヤ2の左右の耳をそれぞれ被う左右のスピーカ部を備える。1つのスピーカ部が備えるスピーカの数は適宜設定可能である。   The headphones 5 include left and right speaker units that respectively cover the left and right ears of the player 2. The number of speakers included in one speaker unit can be set as appropriate.

HMD6は、頭部の向きと方向とがトラッキング可能なVR型のヘッドマウントディスプレイである。本実施形態では、装着すると両眼が被われて周囲の様子が見えなくなる没入型(非透過型)とするが、透過制御により透過/非透過を制御できるタイプでもよい。その場合、非常時を除くゲームプレイ中は基本的に非透過に制御されるものとする。   The HMD 6 is a VR-type head-mounted display capable of tracking the direction and direction of the head. In the present embodiment, the immersion type (non-transmission type) in which both eyes are covered and the surrounding state cannot be seen when worn, but a type in which transmission / non-transmission can be controlled by transmission control may be used. In this case, it is assumed that the game is basically controlled to be non-transparent during game play except for an emergency.

なお、本実施形態のHMD6は、3軸加速度センサと、ジャイロセンサと、トラッキング用のマーカとして機能する単数又は複数の発光部と、ヘッドフォン5と、を一体に有するタイプとする。ただし、3軸加速度センサ・ジャイロセンサ・発光部は、HMD6のプレイフィールド内での位置や姿勢を追跡するヘッドトラッキングを実現するために使用されるので、採用するトラッキング技術によって不要な要素は適宜省略できる。   Note that the HMD 6 of the present embodiment is of a type that integrally includes a three-axis acceleration sensor, a gyro sensor, one or a plurality of light emitting units functioning as tracking markers, and the headphones 5. However, since the three-axis acceleration sensor, gyro sensor, and light emitting unit are used to realize head tracking for tracking the position and orientation in the play field of the HMD 6, unnecessary elements are appropriately omitted depending on the tracking technology used. it can.

図2は、コントローラ8の構成例を示す図である。本実施形態のコントローラ8は、人が片手で把持できるサイズの棒状の把持部81と、その先端に設けられた先端発光体82と、を有する。   FIG. 2 is a diagram illustrating a configuration example of the controller 8. The controller 8 according to the present embodiment includes a rod-shaped grip portion 81 having a size that can be gripped by one hand by a person, and a tip light emitting body 82 provided at the tip thereof.

把持部81は、コントローラ制御基板85と、バッテリー86とを内蔵する。適宜その表面に、操作スイッチやダイヤルスイッチなどを設けても良い。   The grip 81 includes a controller control board 85 and a battery 86. An operation switch, a dial switch, or the like may be provided on the surface as appropriate.

コントローラ制御基板85は、CPU851と、ICメモリ852と、インターフェースIC853と、無線通信モジュール854と、3軸加速度センサ855と、ジャイロセンサ856と、を備える。勿論、これら以外の電子部品も適宜備えることができる。   The controller control board 85 includes a CPU 851, an IC memory 852, an interface IC 853, a wireless communication module 854, a three-axis acceleration sensor 855, and a gyro sensor 856. Of course, electronic components other than these can be provided as appropriate.

CPU851は、ICメモリ852に記憶されているプログラムを実行することにより、先端発光体82の発光制御と、3軸加速度センサ855及びジャイロセンサ856による検出信号を無線通信モジュール854を介してゲーム制御装置1100へ送信する制御と、を実行する。   The CPU 851 executes the program stored in the IC memory 852 to control the light emission of the tip light emitting body 82 and to transmit detection signals from the three-axis acceleration sensor 855 and the gyro sensor 856 via the wireless communication module 854 to the game control device. And control for transmitting to 1100.

なお、3軸加速度センサ855と、ジャイロセンサ856と、先端発光体82とは、コントローラ8のプレイフィールド内での位置や姿勢を追跡するコントローラトラッキングを実現するために使用されるので、採用するトラッキング技術によって不要な要素は適宜省略できる。   The three-axis acceleration sensor 855, the gyro sensor 856, and the tip light emitter 82 are used to implement controller tracking for tracking the position and orientation of the controller 8 in the play field. Unnecessary elements can be appropriately omitted depending on the technology.

また、コントローラ8の外観形状は、これに限らず適宜設定可能である。家庭用据置型ゲーム装置のゲームコントローラをコントローラ8として使用してもよいし、専用のコントローラ8を設けることとしてもよい。専用のコントローラ8を設ける場合には、その形状は適宜設定でき、例えば指輪型や、腕輪型、指サック型、などでもよい。   The external shape of the controller 8 is not limited to this, and can be set as appropriate. A game controller of a stationary game device for home use may be used as the controller 8, or a dedicated controller 8 may be provided. When the dedicated controller 8 is provided, its shape can be appropriately set, and may be, for example, a ring type, a bracelet type, a finger sack type, or the like.

図1に戻って、トラッキング用カメラ7は、プレイフィールド内を撮影範囲に収め、HMD6やコントローラ8を撮影した画像の信号やデータを、ゲーム制御装置1100へ送信する。そして、撮影した画像は、公知のモーションキャプチャ技術と同様にして、HMD6のプレイフィールド内での位置や姿勢を追跡するヘッドトラッキングや、コントローラ8のプレイフィールド内での位置や姿勢を追跡するコントローラトラッキングに使用される。なお、採用するトラッキング技術によっては、トラッキング用カメラ7を省略してもよい。或いは、カメラに代えて深度センサを採用するとしてもよい。   Returning to FIG. 1, the tracking camera 7 sends the signal and data of an image obtained by shooting the HMD 6 and the controller 8 to the game control device 1100 while keeping the play field within the shooting range. Then, in the same manner as a known motion capture technique, the captured image is subjected to head tracking for tracking the position and orientation in the play field of the HMD 6 and controller tracking for tracking the position and orientation in the play field of the controller 8. Used for Note that the tracking camera 7 may be omitted depending on the tracking technology employed. Alternatively, a depth sensor may be employed instead of the camera.

ゲーム制御装置1100は、ゲームシステム1000に含まれるコンピュータシステムの1つである。本実施形態のゲーム制御装置1100は、本体装置1101と、タッチパネル1108と、を有し、本体装置1101は、プレイ対価支払部1110と、制御基板1150とを搭載する。   The game control device 1100 is one of the computer systems included in the game system 1000. The game control device 1100 of the present embodiment has a main device 1101 and a touch panel 1108. The main device 1101 has a play payment unit 1110 and a control board 1150 mounted thereon.

プレイ対価支払部1110は、ゲームプレイの対価の支払いを受け付け、支払操作の検知信号を制御基板1150へ出力する。プレイ対価支払部1110は、例えば硬貨投入装置や、仮想通貨に紐付けられた情報を記憶する媒体(例えば、クレジットカード、プリペイドカード、電子マネーカード、ユーザカードなど)の読み取り装置で実現され、現金やクレジット、仮想通貨による支払いに対応する。勿論、ゲームプレイの対価の支払いが不要な構成であってもよい。   The play payment unit 1110 receives payment for the game play, and outputs a detection signal of a payment operation to the control board 1150. The play consideration payment unit 1110 is realized by, for example, a coin insertion device or a reading device of a medium (for example, a credit card, a prepaid card, an electronic money card, a user card, and the like) that stores information associated with virtual currency, and And payment by credit and virtual currency. Of course, a configuration in which payment for the game play is not required may be employed.

制御基板1150には、CPU(Central Processing Unit)1151やGPU(Graphics Processing Unit)、DSP(Digital Signal Processor)などの各種マイクロプロセッサ、VRAMやRAM,ROM等の各種ICメモリ1152、通信装置1153が搭載されている。なお、制御基板1150の一部又は全部は、ASIC(Application Specific Integrated Circuit)や、FPGA(field-programmable gate array)、SoC(System on a Chip)により実現するとしてもよい。   The control board 1150 includes a CPU (Central Processing Unit) 1151, a GPU (Graphics Processing Unit), various microprocessors such as a DSP (Digital Signal Processor), various IC memories 1152 such as VRAM, RAM, and ROM, and a communication device 1153. Have been. Note that part or all of the control board 1150 may be realized by an ASIC (Application Specific Integrated Circuit), an FPGA (field-programmable gate array), or an SoC (System on a Chip).

そして、ゲーム制御装置1100は、制御基板1150が所定のプログラム及びデータに基づいて演算処理することにより、1)ユーザ登録等に係るユーザ管理機能と、2)ヘッドトラッキング及びコントローラトラッキングの機能と、3)HMD6及びコントローラ8を1組のユーザ端末と見なしたゲーム進行に係る各種制御を実行するゲーム管理機能と、を実現する。つまり、本実施形態におけるゲームは、一種のクライアント・サーバ型のオンラインゲームとして実現される。   Then, the game control device 1100 is configured such that the control board 1150 performs arithmetic processing based on a predetermined program and data so that 1) a user management function related to user registration, 2) a head tracking function and a controller tracking function, A) a game management function of executing various controls relating to the progress of the game, assuming that the HMD 6 and the controller 8 are regarded as a set of user terminals. That is, the game in the present embodiment is realized as a kind of client-server type online game.

なお、制御基板1150が実行する制御は、これらに限らず、クレジットや仮想通貨によるプレイ対価の支払いに係る制御を、適宜含む。マルチプレイ用にデザインした場合には、他のゲーム制御装置1100を使用する他プレーヤとのマッチング機能を行うとしてもよい。   Note that the control executed by the control board 1150 is not limited to these, and appropriately includes control related to payment of play consideration by credit or virtual currency. When designed for multiplayer, a matching function with another player using another game control device 1100 may be performed.

また、本実施形態ではゲーム制御装置1100を単体として記しているが、それら各機能を分担する複数のコンピュータを搭載して相互に内部バスを介してデータ通信可能に接続した構成であっても良い。或いは、離れた場所に設置された独立した複数のコンピュータを、通信回線(有線/無線を問わない)を介してデータ通信させることで、全体としてゲーム制御装置1100として機能させる構成であっても良い。   Further, in the present embodiment, the game control device 1100 is described as a single unit. However, a configuration may be employed in which a plurality of computers sharing the respective functions are mounted and mutually connected via an internal bus so that data communication is possible. . Alternatively, a configuration may be adopted in which a plurality of independent computers installed at distant locations are caused to perform data communication via a communication line (regardless of wired / wireless) so as to function as the game control device 1100 as a whole. .

[原理の説明]
図3は、本実施形態におけるユーザサポートの前提を説明するための図である。図の上側が仮想現実空間の状態を示し、図の下側が実空間の状況を示している。
[Explanation of principle]
FIG. 3 is a diagram for explaining the premise of user support in the present embodiment. The upper side of the figure shows the state of the virtual reality space, and the lower side of the figure shows the state of the real space.

本実施形態のVR体験は、仮想恋人10と一緒に様々なイベントをこなすことで仮想恋人10がプレーヤに抱く好感度を高めさせ、仮想恋人10からプレーヤへ愛の告白を受けることをゴールとする恋愛シミュレーションゲームである。   The VR experience according to the present embodiment has a goal that the virtual lover 10 enhances the liking of the player by performing various events together with the virtual lover 10 and receives a confession of love from the virtual lover 10 to the player. It is a love simulation game.

図示の状態は、とあるデートイベントの冒頭であり、「あーん」と口を開けて待っている仮想恋人10に仮想ケーキ14を食べさせてあげるシーンであり、仮想テーブル12から仮想ケーキ14を仮想フォーク16で刺して、仮想ケーキ14の向きを食べやすく合わせながら仮想恋人10の口へ運んで挿入するシーンを示している。すなわち、プレーヤは、移動対象とされる仮想オブジェクト(移動対象オブジェクト:仮想ケーキ14)を、移動目標位置(到達位置:仮想恋人10の口)へ、理想とする状態(この場合、仮想ケーキ14の向きと仮想恋人10の口の向きを合わせる)にして運搬するシーンである。   The state shown in the figure is the beginning of a certain date event, in which a virtual lover 10 who opens his mouth and waits for "aan" to eat the virtual cake 14 is displayed. A scene is shown in which a virtual fork 16 is stabbed and brought into the mouth of a virtual lover 10 while the direction of the virtual cake 14 is adjusted to make it easier to eat. That is, the player moves the virtual object to be moved (moving target object: virtual cake 14) to the movement target position (arrival position: mouth of virtual lover 10) (in this case, virtual cake 14). This is a scene in which the direction and the direction of the mouth of the virtual lover 10 are matched).

HMD6を装着したプレーヤ2の視界には、コントローラ8を基準体として追従制御される仮想手20(仮想現実空間におけるプレーヤ2の仮想身体部位)が仮想フォーク16を持った状態で表示される。仮想フォーク16の姿勢とコントローラ8の姿勢とは、移動対象を移動目標位置へ移動させるまでの間、所定の相対関係に固定されている。図示の例では、フォークの長手方向とコントローラ8の長手方向とが所定の関係に固定されている。   In the field of view of the player 2 wearing the HMD 6, a virtual hand 20 (a virtual body part of the player 2 in a virtual reality space) controlled to follow with the controller 8 as a reference body is displayed in a state of holding a virtual fork 16. The attitude of the virtual fork 16 and the attitude of the controller 8 are fixed in a predetermined relative relationship until the movement target is moved to the movement target position. In the illustrated example, the longitudinal direction of the fork and the longitudinal direction of the controller 8 are fixed in a predetermined relationship.

図4及び図5は、本実施形態におけるユーザサポートの原理を説明するための図である。図4は側面から見た図、図5は上から見た図に相当する。   FIGS. 4 and 5 are diagrams for explaining the principle of user support in the present embodiment. FIG. 4 corresponds to a view from the side, and FIG. 5 corresponds to a view from the top.

図4及び図5それぞれの上側は、コントローラ8のトラッキングにズレが生じている状態(現状)を強調して表している。すなわち、様々な理由によりコントローラ8のトラッキングにズレが生じると、仮想フォーク16の姿勢とコントローラ8の姿勢との対応付け(追従関係)にズレが生じてしまう。図示の例では、コントローラ8は水平状の姿勢であるのに対して仮想フォーク16は斜め右上方に向けた姿勢になっている。両者の姿勢の対応付けにズレが生じた状態である。この状況で、仮想ケーキ14を理想の状態で仮想恋人10の口に差し込むには、プレーヤは不自然なほどに手首を曲げなければならない。   The upper side of each of FIG. 4 and FIG. 5 emphasizes a state where the tracking of the controller 8 is shifted (current state). That is, if a deviation occurs in the tracking of the controller 8 for various reasons, a deviation occurs in the association (follow-up relationship) between the attitude of the virtual fork 16 and the attitude of the controller 8. In the illustrated example, the controller 8 has a horizontal posture, whereas the virtual fork 16 has a posture obliquely upward and to the right. This is a state in which the correspondence between the two postures has shifted. In this situation, in order to insert the virtual cake 14 into the mouth of the virtual lover 10 in an ideal state, the player must bend his wrist unnaturally.

この不自然な手首の曲げは、仮想現実空間と実空間との違いを際立たせ、VR体験の没入感やVRのリアリティを損なう上に、プレーヤに無理な操作を強いることとなりゲームへの評価も損なう結果となる。そこで本実施形態では、図4及び図5それぞれの下側に示すように、移動対象オブジェクトを理想状態(移動対象オブジェクトが移動目標位置(到達位置)へ到達した際に理想とされる状態(到達状態)に近づけるように補正を行う。   This unnatural bending of the wrist highlights the difference between the virtual reality space and the real space, impairs the immersive feeling of the VR experience and the reality of the VR, and also forces the player to perform unreasonable operations, and the evaluation of the game The consequences are impaired. Therefore, in the present embodiment, as shown in the lower part of each of FIGS. 4 and 5, the movement target object is set in the ideal state (the state where the movement target object is ideal when the movement target object has reached the movement target position (arrival position). Is corrected so as to approach (state).

図6は、理想状態を設定する区域の例について説明するための概念図である。
本実施形態における理想状態は、仮想ケーキ14及び仮想フォーク16が、仮想恋人10の口に向けて、どの方位から接近してくるかによって幾通りか用意されている。
具体的には、仮想恋人10の口に移動目標位置Pmを設定し、移動目標位置Pmを基点として顔の正面方向を基準方向とする。なお、移動目標位置Pmは適宜移動目標エリアとすることができる。
FIG. 6 is a conceptual diagram for describing an example of an area where an ideal state is set.
The ideal state in the present embodiment is prepared in several ways depending on from which direction the virtual cake 14 and the virtual fork 16 approach the mouth of the virtual lover 10.
Specifically, the movement target position Pm is set in the mouth of the virtual lover 10, and the front direction of the face is set as the reference direction with the movement target position Pm as a base point. Note that the movement target position Pm can be an appropriate movement target area.

そして、基準方向に基づいて仮想恋人10の前方に、複数の理想状態設定区域30を設定し区域毎に理想状態を設定する。本実施形態では、正面側の空間を上下左右に分割し、第1区域30a〜第4区域30dの4つの理想状態設定区域30を設定するが、分割数や分割境界の数、区域の形状は適宜設定可能である。区域の形状は同じ形状でも良いし、それぞれ固有の形状であってもよい。   Then, a plurality of ideal state setting areas 30 are set in front of the virtual lover 10 based on the reference direction, and an ideal state is set for each area. In the present embodiment, the space on the front side is divided into upper, lower, left, and right, and four ideal state setting sections 30 of the first section 30a to the fourth section 30d are set. However, the number of divisions, the number of division boundaries, and the shape of the sections are different. It can be set as appropriate. The shape of the area may be the same shape, or may be a unique shape.

また、本実施形態では、これらの理想状態設定区域30(30a〜30d)の上下左右それぞれの更に外側に警告区域30eを設定し、警告目的のための特別な理想状態を設定する(詳細後述)。警告区域30eは、実空間における保護壁3や保護シート4などの境界物との衝突が心配される領域である。プレイフィールドが、保護壁3や保護シート4などで画成されない十分に広いオープンスペースであれば、警告区域30eを省略することができる。   In the present embodiment, a warning area 30e is set further outside each of the ideal state setting areas 30 (30a to 30d) in the upper, lower, left, and right directions, and a special ideal state for a warning purpose is set (details will be described later). . The warning area 30e is an area where a collision with a boundary object such as the protective wall 3 or the protective sheet 4 in the real space is concerned. If the play field is a sufficiently large open space that is not defined by the protection wall 3 or the protection sheet 4, the warning area 30e can be omitted.

なお、これらの理想状態設定区域30(30a〜30e)が設定されていない空間、例えば、仮想恋人10の背後の空間では理想状態が存在しないので移動対象オブジェクトの位置や姿勢の補正は行われないことになる。   Note that, in a space in which these ideal state setting areas 30 (30a to 30e) are not set, for example, a space behind the virtual lover 10, there is no ideal state, so that the position and orientation of the moving target object are not corrected. Will be.

図7及び図8は理想状態の設定概念と補正の例を説明するための図である。図7は、仮想恋人10を上から見た図に相当し、代表として第1区域30aと第2区域30bとを示している。図8は、仮想恋人10を側面から見た図に相当し、代表として第1区域30aと第4区域30dとを示している。   7 and 8 are diagrams for explaining the concept of setting the ideal state and an example of correction. FIG. 7 corresponds to a view of the virtual lover 10 viewed from above, and shows a first section 30a and a second section 30b as representatives. FIG. 8 is equivalent to a diagram of the virtual lover 10 viewed from the side, and shows a first section 30a and a fourth section 30d as representatives.

仮想恋人10は、静物ではないのでゲームプレイ中さまざまな動作をする。その位置や姿勢は一定とは言えない。そこで、理想状態は、基準方向(移動目標位置Pmを基点として仮想恋人10の顔正面方向)に基づいて区域毎に所定の演算式により求められるようになっている。   Since the virtual lover 10 is not a still life, it performs various operations during game play. The position and posture are not constant. Therefore, the ideal state is determined by a predetermined calculation formula for each area based on the reference direction (the direction in front of the face of the virtual lover 10 with the movement target position Pm as a base point).

例えば、第1区域30aの理想状態は、1)右手にあたる仮想手20で仮想フォーク16を持ち、且つ2)仮想ケーキ14の所定先端部が仮想恋人10の口を向き、且つ3)仮想ケーキ14の長手方向が基準方向に対して前方やや左上方より浅い角度で交差する姿勢、と設定される。   For example, the ideal state of the first area 30a is 1) holding the virtual fork 16 with the virtual hand 20 corresponding to the right hand, and 2) the predetermined tip of the virtual cake 14 faces the mouth of the virtual lover 10, and 3) the virtual cake 14 Is set to a posture in which the longitudinal direction intersects the reference direction at an angle slightly smaller than the front left upper side.

第2区域30bの理想状態は、1)左手にあたる仮想手20で仮想フォーク16を持ち、且つ2)仮想ケーキ14の所定先端部が仮想恋人10の口を向き、且つ3)仮想ケーキ14の長手方向が基準方向に対して前方やや右上方より浅い角度で交差する姿勢、と設定される。   The ideal state of the second area 30b is 1) holding the virtual fork 16 with the virtual hand 20 corresponding to the left hand, and 2) the predetermined tip of the virtual cake 14 faces the mouth of the virtual lover 10, and 3) the length of the virtual cake 14. The orientation is set such that the direction intersects the reference direction at an angle slightly smaller than the front right upper side.

第4区域30dの理想状態は、1)右手にあたる仮想手20で仮想フォーク16を持ち、且つ2)仮想ケーキ14の所定先端部が仮想恋人10の口を向き、且つ3)仮想ケーキ14の長手方向が基準方向に対して前方やや左下方より浅い角度で交差する姿勢、と設定される。   The ideal state of the fourth area 30d is: 1) holding the virtual fork 16 with the virtual hand 20 corresponding to the right hand, and 2) the predetermined tip of the virtual cake 14 faces the mouth of the virtual lover 10, and 3) the length of the virtual cake 14. The attitude is set such that the direction intersects the reference direction at an angle slightly smaller than the lower left front.

つまり、それぞれの区域の設定されている方位から、仮想ケーキ14・仮想フォーク16・仮想手20のセットが仮想恋人10の口へ目がけてアプローチする上で、最終的に仮想ケーキ14を口に挿入するのに自然で理想的とされる位置と姿勢とが設定される。   That is, the virtual cake 14, the virtual fork 16, and the virtual hand 20 approach the mouth of the virtual lover 10 from the set orientation of each area and finally approach the virtual cake 14 to the mouth. The position and orientation that are natural and ideal for insertion are set.

そして、仮想ケーキ14・仮想フォーク16・仮想手20への補正は、移動目標位置Pmへの接近度合、具体的には移動目標位置Pmから仮想手20(コントローラ8の位置)までの距離Lに応じて、距離Lが小さい程より強く補正される。   The correction to the virtual cake 14, the virtual fork 16, and the virtual hand 20 is performed based on the degree of approach to the movement target position Pm, specifically, the distance L from the movement target position Pm to the virtual hand 20 (the position of the controller 8). Accordingly, the smaller the distance L, the stronger the correction.

よって、図4や図5のようにトラッキングのズレが生じているとしても、図7及び図8に示すように、仮想ケーキ14・仮想フォーク16・仮想手20が仮想恋人10の口に近づくにつれて、プレーヤ2にはそれと気付かれないように徐々に理想状態に近づくように円滑且つ自然に補正される。   Therefore, even if the tracking deviation occurs as shown in FIGS. 4 and 5, as shown in FIGS. 7 and 8, the virtual cake 14, the virtual fork 16, and the virtual hand 20 approach the mouth of the virtual lover 10. The correction is made smoothly and naturally so that the player 2 gradually approaches the ideal state without noticing it.

一方、警告区域30eについては、警告目的の理想状態が設定されている。具体的には、あからさまにプレーヤが異変を感じ、それ以上コントローラ8を警告区域30eに移動させるのが好ましくないと感じさせる状態を設定する。   On the other hand, in the warning area 30e, an ideal state for the purpose of warning is set. Specifically, a state is set in which the player feels unusually unusual and feels that it is not preferable to move the controller 8 to the warning area 30e any more.

例えば、仮想フォーク16ごと滑り落ちる、仮想ケーキ14が崩れて仮想フォーク16から落ちる、と言った移動対象オブジェクトの位置や姿勢の異常状態を設定すると好適である。また、仮想ケーキ14や仮想フォーク16、仮想手20の表示モデル(表示形態の一例)が警告表示体に変化する、仮想ケーキ14が警告色に染まる、仮想ケーキ14が明滅する、仮想ケーキ14が振動する、と言った移動対象オブジェクトの動作や表示形態(表示モデル、表示サイズ、表示色、明度、透明度、を含む意)の異常状態を設定すると好適である。   For example, it is preferable to set an abnormal state of the position or posture of the moving target object, such as sliding down the virtual fork 16 or falling down from the virtual fork 16 when the virtual cake 14 collapses. In addition, the display model (an example of a display form) of the virtual cake 14, the virtual fork 16, and the virtual hand 20 changes to a warning display body, the virtual cake 14 is dyed in a warning color, the virtual cake 14 blinks, and the virtual cake 14 is displayed. It is preferable to set an abnormal state of the movement or display form (including a display model, a display size, a display color, lightness, and transparency) of the movement target object, which is said to vibrate.

図9は、移動対象オブジェクトの補正の仕方について説明するための概念図である。
第1区域30a〜第4区域30dについては、移動目標位置Pm(仮想恋人10の口)から、仮想手20までの距離Lを変数とする所定の補正割合導出関数f1で、補正に適用される補正割合が決定される(図中のN%)。そして、補正割合0%に相当する現状(図中の点線表記)と、補正割合100%に相当する理想状態(図中の破線表記)との間で、適用される補正割合に応じて中割りされた状態を求め、これを補正制御の「目標状態」とする(図中の実線表記)。すなわち、本実施形態では、距離Lがゼロに近づくほど、仮想ケーキ14・仮想フォーク16・仮想手20の位置や姿勢、動作、表示形態の制御パラメータ値を、現状の値から目標状態の値に近づけるように変更して仮想ケーキ14・仮想フォーク16・仮想手20の表示に係る制御パラメータ値を更新する。
FIG. 9 is a conceptual diagram for describing a method of correcting a movement target object.
The first area 30a to the fourth area 30d are applied to the correction by a predetermined correction ratio deriving function f1 using the distance L from the movement target position Pm (the mouth of the virtual lover 10) to the virtual hand 20 as a variable. The correction ratio is determined (N% in the figure). Then, according to the applied correction ratio, the current state (indicated by a dotted line in the figure) corresponding to the correction rate of 0% and the ideal state (indicated by the broken line in the figure) corresponding to the correction rate of 100% are divided in accordance with the applied correction rate. The corrected state is obtained, and this is set as the “target state” of the correction control (indicated by a solid line in the figure). That is, in the present embodiment, as the distance L approaches zero, the control parameter values of the position, orientation, motion, and display mode of the virtual cake 14, the virtual fork 16, and the virtual hand 20 are changed from the current value to the value of the target state. The control parameter values related to the display of the virtual cake 14, the virtual fork 16, and the virtual hand 20 are updated by changing them so as to approach each other.

なお、位置や姿勢、動作、表示形態のうちどの制御パラメータ値を変更対象とするかは、移動対象オブジェクトのゲーム内における役割に応じて適宜設定可能である。本実施形態では、少なくとも姿勢を変更対象とする。   Note that which control parameter value among the position, posture, motion, and display form is to be changed can be appropriately set according to the role of the moving target object in the game. In the present embodiment, at least the posture is to be changed.

補正導出関数は、移動対象オブジェクトのゲーム内における役割に応じて適宜設定可能である。本実施形態では、第1区域30a〜第4区域30dでは、補正制御発動条件距離Lc以下の範囲で、距離Lに反比例して補正割合が100%に近づく補正導出関数f1が設定されている。一方、警告区域30eでは、補正制御発動条件距離以下になると常に補正割合が100%になる補正導出関数が設定されている。すなわち、移動対象オブジェクトが警告区域30eに入ると直ちに理想状態を再現するように補正される。   The correction derivation function can be appropriately set according to the role of the moving target object in the game. In the present embodiment, in the first section 30a to the fourth section 30d, a correction derivation function f1 in which the correction ratio approaches 100% in inverse proportion to the distance L is set within a range equal to or less than the correction control activation condition distance Lc. On the other hand, in the warning area 30e, a correction derivation function is set such that the correction ratio always becomes 100% when the distance becomes equal to or less than the correction control activation condition distance. That is, the correction is performed so as to reproduce the ideal state as soon as the moving target object enters the warning area 30e.

[機能構成の説明]
図10は、本実施形態におけるゲームシステム1000の機能構成例を示す機能ブロック図である。本実施形態におけるゲームシステム1000は、操作入力部100と、処理部200と、音出力部390と、画像表示部392と、通信部394と、記憶部500とを備える。
[Explanation of functional configuration]
FIG. 10 is a functional block diagram illustrating a functional configuration example of the game system 1000 according to the present embodiment. The game system 1000 according to the present embodiment includes an operation input unit 100, a processing unit 200, a sound output unit 390, an image display unit 392, a communication unit 394, and a storage unit 500.

操作入力部100は、ゲームシステム1000の管理やゲームプレイのための各種操作を入力するための手段である。本実施形態では、図1のHMD6及びトラッキング用カメラ7は操作入力部100の1つであり、プレーヤ2が見ている位置や方向、プレーヤの身体部位の位置を入力する機能を果たし、トラッキング用カメラ7及びコントローラ8は操作入力部100の1つであり、プレーヤの身体部位の位置を入力する機能を果たす。   The operation input unit 100 is a unit for inputting various operations for managing the game system 1000 and playing a game. In the present embodiment, the HMD 6 and the tracking camera 7 of FIG. 1 are one of the operation input units 100 and perform a function of inputting a position and a direction of the player 2 and a position of a body part of the player. The camera 7 and the controller 8 are one of the operation input units 100 and have a function of inputting the position of the body part of the player.

処理部200は、例えばCPUやGPU等のマイクロプロセッサや、ASIC、FPGA、ICメモリなどの電子部品によって実現され、操作入力部100や記憶部500を含む各機能部との間でデータの入出力を行う。図1の制御基板1150がこれに該当する。そして、処理部200は、所定のプログラムやデータ、操作入力部100からの操作入力信号、HMD6やコントローラ8、トラッキング用カメラ7などから受信したデータに基づいて各種の演算処理を実行して、ゲームシステム1000の動作を統合的に制御する。   The processing unit 200 is realized by, for example, a microprocessor such as a CPU and a GPU, and electronic components such as an ASIC, an FPGA, and an IC memory, and inputs and outputs data to and from each functional unit including the operation input unit 100 and the storage unit 500. I do. The control board 1150 in FIG. 1 corresponds to this. The processing unit 200 executes various arithmetic processes based on predetermined programs and data, operation input signals from the operation input unit 100, and data received from the HMD 6, the controller 8, the tracking camera 7, and the like, and executes a game. The operation of the system 1000 is integrally controlled.

具体的には、本実施形態の処理部200は、ゲーム進行制御部210と、計時部280と、音生成部290と、画像生成部292と、通信制御部294とを含む。勿論、これら以外の機能部も適宜含めることができる。   Specifically, the processing unit 200 of the present embodiment includes a game progress control unit 210, a timer unit 280, a sound generation unit 290, an image generation unit 292, and a communication control unit 294. Of course, other functional units may be included as appropriate.

ゲーム進行制御部210は、ゲームの実行管理に係る各種処理を行う。具体的には、ゲーム進行制御部210は、仮想現実空間設定部212と、HMDトラッキング部214と、コントローラトラッキング部216と、追従制御部218と、到達位置設定部220と、到達状態設定部222と、変更制御部224と、キャラクタ制御部226と、を有する。   The game progress control unit 210 performs various processes related to game execution management. Specifically, the game progress control unit 210 includes a virtual reality space setting unit 212, an HMD tracking unit 214, a controller tracking unit 216, a tracking control unit 218, an arrival position setting unit 220, and an arrival state setting unit 222. , A change control unit 224, and a character control unit 226.

なお、本実施形態のゲームは、シングルプレイを前提としているが、もしPvP(Player versus Player)形式でゲームを実行する場合には、ゲーム進行制御部210に対戦者のマッチングに関する制御を実行させることとしてもよい。   Note that the game of the present embodiment is based on single play, but if the game is to be executed in a PvP (Player versus Player) format, the game progress control unit 210 may be required to execute control relating to matching of opponents. It may be.

仮想現実空間設定部212は、仮想3次元空間に各種背景オブジェクトを配置して、仮想現実空間を設定・管理する。   The virtual reality space setting unit 212 sets and manages a virtual reality space by arranging various background objects in a virtual three-dimensional space.

HMDトラッキング部214は、HMD6のトラッキングに係る処理を実行する。プレーヤの視点位置及び視線方向をトラッキングするとも言える。   The HMD tracking unit 214 performs a process related to tracking of the HMD 6. It can also be said that the viewpoint position and the line-of-sight direction of the player are tracked.

コントローラトラッキング部216は、コントローラ8又はそれを具備するプレーヤ2の身体部位の位置及び姿勢のトラッキングに係る処理を実行する。本実施形態では、移動対象オブジェクトの移動は、コントローラ8を基準体として追従制御することにより実現されるので、コントローラトラッキング部216は、プレーヤ(ユーザ)の身体部位又はユーザが具備するコントローラを基準体として実空間内の基準体の位置をトラッキングする手段であるとも言える。   The controller tracking unit 216 executes a process related to tracking of the position and orientation of the controller 8 or the body part of the player 2 including the controller 8. In the present embodiment, since the movement of the movement target object is realized by performing tracking control using the controller 8 as a reference body, the controller tracking unit 216 uses the body part of the player (user) or a controller provided by the user as a reference body. It can be said that this is a means for tracking the position of the reference body in the real space.

なお、本実施形態では、コントローラ8が具備される身体部位としてプレーヤ2の右手を例示したが、ゲーム内容やコントローラの形態によっては、左手は勿論のこと、手指、関節、脚、頭部、腹部、背、肩、額、口、鼻、などその他の部位でもよい。   In the present embodiment, the right hand of the player 2 is exemplified as the body part provided with the controller 8, but depending on the game content and the form of the controller, not only the left hand but also the fingers, joints, legs, head, abdomen. , Back, shoulders, forehead, mouth, nose, and other parts.

追従制御部218は、仮想現実空間において移動対象オブジェクト(仮想オブジェクト)の位置及び姿勢を、基準体の位置及び姿勢に対応付けて追従させるように制御する。本実施形態では、仮想ケーキ14・仮想フォーク16・仮想手20を一体として、コントローラ8の位置と姿勢に追従するように制御する。   The tracking control unit 218 controls the position and orientation of the moving target object (virtual object) in the virtual reality space so as to follow the position and orientation of the reference body. In the present embodiment, the virtual cake 14, the virtual fork 16, and the virtual hand 20 are integrally controlled so as to follow the position and orientation of the controller 8.

到達位置設定部220は、仮想現実空間内にプレーヤが移動させる仮想オブジェクト(移動対象オブジェクト)の到達位置(移動目標位置Pm)を設定する。本実施形態では、仮想現実空間内の所与のキャラクタの所与の部位に、到達位置を設定することができる。すなわち、仮想恋人10の口に到達位置を設定することができる。   The arrival position setting unit 220 sets an arrival position (movement target position Pm) of a virtual object (movement target object) to be moved by the player into the virtual reality space. In the present embodiment, an arrival position can be set at a given site of a given character in the virtual reality space. That is, the arrival position can be set at the mouth of the virtual lover 10.

到達状態設定部222は、プレーヤが移動させる仮想オブジェクトが仮想現実空間内の所与の位置(又は所与のエリア)へ到達した際の到達姿勢を少なくとも含む到達状態、本実施形態で言うところの理想状態を設定する。   The reaching state setting unit 222 is a reaching state including at least a reaching posture when the virtual object moved by the player reaches a given position (or a given area) in the virtual reality space. Set the ideal state.

具体的には、到達状態設定部222は、到達位置に向かう仮想オブジェクトの方位別に到達状態を対応付けて設定する。本実施形態では、理想状態設定区域30(30a〜30e)別に理想状態を設定する(図7,図8参照)。   Specifically, the arrival state setting unit 222 sets the arrival state for each direction of the virtual object heading for the arrival position in association with each other. In the present embodiment, an ideal state is set for each ideal state setting area 30 (30a to 30e) (see FIGS. 7 and 8).

また、到達状態設定部222は、到達位置が仮想現実空間内の所与のキャラクタに設定されている場合、その設定されている部位の向きに応じて到達姿勢を設定することができる。本実施形態では、仮想恋人10の基準方向に基づいて理想状態が決まることがこれに該当する。   In addition, when the reaching position is set to a given character in the virtual reality space, the reaching state setting unit 222 can set the reaching posture according to the direction of the set part. In the present embodiment, this corresponds to the fact that the ideal state is determined based on the reference direction of the virtual lover 10.

変更制御部224は、移動させる仮想オブジェクトの到達位置への接近に応じて、当該仮想オブジェクトの姿勢を、追従制御部218により追従されている姿勢(追従姿勢)から到達姿勢(理想状態)に変更する制御を、当該仮想オブジェクトから対応する到達位置までの距離Lが所与の変更制御発動条件を満たした場合に実行する(補正制御発動条件距離Lc;図9参照)。   The change control unit 224 changes the posture of the virtual object to be moved from the posture (following posture) followed by the following control unit 218 to the reaching posture (ideal state) according to the approach of the virtual object to the arrival position. Is executed when the distance L from the virtual object to the corresponding arrival position satisfies a given change control activation condition (correction control activation condition distance Lc; see FIG. 9).

具体的には、変更制御部224は、移動される仮想オブジェクトが到達位置へ接近する方位(逆説的には、移動目標位置へのアプローチ方位)と方位別の到達状態とに基づいて、接近するに従って(当該仮想オブジェクトから到達位置までの距離が短くなるに従って)、当該仮想オブジェクトの姿勢を到達姿勢に近づけるように変更制御することができる。   Specifically, the change control unit 224 approaches based on the azimuth (paradoxically, the approach azimuth to the movement target position) at which the virtual object to be moved approaches the arrival position and the arrival state for each azimuth. (As the distance from the virtual object to the arrival position becomes shorter), the change control can be performed so that the posture of the virtual object approaches the arrival posture.

また、変更制御部224は、所定の急変発動条件を満たした場合には、移動される仮想オブジェクトの姿勢を、追従姿勢から到達姿勢に直ちに変更することができる。本実施形態では、警告区域30eへの仮想手20の到達を急変発動条件とし、警告目的の理想状態へ補正割合100%で直ちに補正制御することがこれに該当する。   Further, when a predetermined sudden change activation condition is satisfied, the change control unit 224 can immediately change the posture of the virtual object to be moved from the following posture to the reaching posture. In the present embodiment, this corresponds to that the arrival of the virtual hand 20 in the warning area 30e is set as a sudden change activation condition, and the correction control is immediately performed to the ideal state for the purpose of warning at a correction ratio of 100%.

キャラクタ制御部226は、プレーヤに移動される仮想オブジェクトがその到達位置へ接近するのに応じて、到達位置が設定されたキャラクタの位置及び/又は姿勢を制御する。本実施形態では、仮想ケーキ14が仮想恋人10に近づくと仮想恋人10自らが仮想ケーキ14に口を寄せるようなお迎えの動作をさせる。   The character control unit 226 controls the position and / or orientation of the character whose arrival position is set according to the approach of the virtual object moved by the player to the arrival position. In the present embodiment, when the virtual cake 14 approaches the virtual lover 10, the virtual lover 10 makes a picking-up operation such that the virtual lover 10 comes close to the virtual cake 14.

計時部280は、システムクロックを利用して現在日時や制限時間等の計時を行う。   The timer 280 measures the current date and time, a time limit, and the like using the system clock.

音生成部290は、音声データの生成や合成、デコードなどをする回路やIC、ソフトウェアの実行により実現され、ゲームシステム1000のシステム管理やゲームプレイに係る立体音響や、操作音、BGMなどの音声データを生成或いはデコードする。そして、システム管理に関する音声やゲームプレイに係る音声の信号を音出力部390へ出力する。   The sound generation unit 290 is realized by executing a circuit, an IC, and software for generating, synthesizing, and decoding audio data, and performs three-dimensional sound related to system management and game play of the game system 1000, operation sound, and sound such as BGM. Generate or decode data. Then, a sound signal relating to system management and a sound signal relating to game play are output to the sound output unit 390.

音出力部390は、音声信号から音声を再生して放音する。図1の例ではヘッドフォン5や、タッチパネル1108に一体的に備えられたスピーカ(不図示)がこれに該当する。   The sound output unit 390 reproduces sound from a sound signal and emits sound. In the example of FIG. 1, the headphones 5 and a speaker (not shown) integrally provided in the touch panel 1108 correspond to this.

画像生成部292は、ゲームシステム1000のシステム管理に関する画像や、ゲームプレイに必要な画像等を生成し、画像表示部392へ出力することができる。   The image generation unit 292 can generate an image related to system management of the game system 1000, an image necessary for game play, and the like, and output the image to the image display unit 392.

画像表示部392は、画像生成部292から入力される画像信号に基づいてシステム管理のための各種画像や、ゲームプレイに必要な画像を表示する。例えば、フラットパネルディスプレイ、ブラウン管(CRT)、プロジェクター、ヘッドマウントディスプレイといった画像表示装置によって実現できる。図1の例では、HMD6及びタッチパネル1108がこれに該当する。   The image display unit 392 displays various images for system management and images necessary for game play based on the image signal input from the image generation unit 292. For example, it can be realized by an image display device such as a flat panel display, a cathode ray tube (CRT), a projector, and a head mounted display. In the example of FIG. 1, the HMD 6 and the touch panel 1108 correspond to this.

通信制御部294は、データ通信に係るデータ処理を実行し、通信部394を介して外部装置とのデータのやりとりを実現する。
通信部394は、所定のネットワークと接続して通信を実現する。例えば、無線通信機、モデム、TA(ターミナルアダプタ)、有線用の通信ケーブルのジャックや制御回路等によって実現される。図1の例では通信装置1153が該当する。
The communication control unit 294 performs data processing related to data communication, and implements data exchange with an external device via the communication unit 394.
The communication unit 394 realizes communication by connecting to a predetermined network. For example, it is realized by a wireless communication device, a modem, a TA (terminal adapter), a jack of a wired communication cable, a control circuit, and the like. In the example of FIG. 1, the communication device 1153 corresponds to this.

これらは、例えば、他のゲームシステム1000とマルチプレイのために通信接続したり、ゲームプレイの対価の支払いを仮想通貨やクレジットカード決済で行う場合には、プレーヤが所持する仮想通貨の管理サーバやクレジットカード決済用のサーバと通信するのに使用される。勿論、これら以外にもプログラムやデータの取得・更新の為に所定のサーバと通信するとしてもよい。   For example, when a communication connection is made with another game system 1000 for multi-play, or when payment for game play is made by virtual currency or credit card payment, a virtual currency management server or credit server possessed by the player is used. Used to communicate with the server for card payments. Of course, in addition to these, communication with a predetermined server may be performed for acquiring and updating programs and data.

記憶部500は、処理部200にゲームシステム1000を統合的に制御させるための諸機能を実現するためのプログラムや各種データ等を記憶する。また、処理部200の作業領域として用いられ、処理部200が各種プログラムに従って実行した演算結果などを一時的に記憶する。この機能は、例えばRAMやROMなどのICメモリ、ハードディスク等の磁気ディスク、CD−ROMやDVDなどの光学ディスク、オンラインストレージなどによって実現される。図1の例ではICメモリ1152がこれに該当する。   The storage unit 500 stores programs and various data for realizing various functions for causing the processing unit 200 to control the game system 1000 in an integrated manner. Further, it is used as a work area of the processing unit 200, and temporarily stores an operation result and the like executed by the processing unit 200 according to various programs. This function is realized by, for example, an IC memory such as a RAM or a ROM, a magnetic disk such as a hard disk, an optical disk such as a CD-ROM or a DVD, or an online storage. In the example of FIG. 1, the IC memory 1152 corresponds to this.

図11は、本実施形態の記憶部500に記憶されるプログラムやデータの例を示す図である。記憶部500は、システムプログラム501と、ゲームプログラム503と、仮想現実空間初期設定データ510と、アバターキャラクタ初期設定データ516と、仮想オブジェクト初期設定データ520と、イベント定義データ540と、を予め記憶する。また、逐次生成・管理されるデータとして、プレイデータ700と、現在日時800と、を記憶する。その他、タイマや、カウンタ、各種フラグなどの情報を適宜記憶できる。   FIG. 11 is a diagram illustrating an example of programs and data stored in the storage unit 500 according to the present embodiment. The storage unit 500 stores in advance a system program 501, a game program 503, virtual reality space initial setting data 510, avatar character initial setting data 516, virtual object initial setting data 520, and event definition data 540. . Also, the play data 700 and the current date and time 800 are stored as data that is sequentially generated and managed. In addition, information such as a timer, a counter, and various flags can be stored as appropriate.

システムプログラム501は、処理部200が読み出して実行することでゲームシステム1000(この場合、ゲーム制御装置1100)にコンピュータとして必要な基本的な入出力機能を実現するためのシステムプログラムである。   The system program 501 is a system program for realizing basic input / output functions required as a computer in the game system 1000 (in this case, the game control device 1100) by being read and executed by the processing unit 200.

ゲームプログラム503は、処理部200が読み出して実行することで、ゲーム進行制御部210、計時部280などの機能を実現させるためのプログラムである。   The game program 503 is a program for realizing the functions of the game progress control unit 210, the timer unit 280, and the like by reading and executing the processing unit 200.

仮想現実空間初期設定データ510は、仮想現実空間を構築するための各種データを格納する。例えば、仮想テーブル12(図3参照)のように背景物となる各種オブジェクトのモデルデータ、テクスチャデータ、初期配置位置データなどを格納する。   The virtual reality space initial setting data 510 stores various data for constructing the virtual reality space. For example, model data, texture data, initial arrangement position data, and the like of various objects serving as background objects are stored as in a virtual table 12 (see FIG. 3).

アバターキャラクタ初期設定データ516は、仮想現実空間におけるプレーヤ2を代理するオブジェクトを定義するデータである。本実施形態では、仮想手20のような身体部位の一部のみを表示する構成とするが全身を表示する構成とするならば全身分のデータを含むとしてもよい。   The avatar character initial setting data 516 is data defining an object representing the player 2 in the virtual reality space. In the present embodiment, only a part of the body part such as the virtual hand 20 is displayed. However, if the whole body is displayed, data of the whole body may be included.

仮想オブジェクト初期設定データ520は、ゲームに登場するアバターキャラクタ以外の仮想オブジェクト毎に用意される。本実施形態では、仮想恋人10、仮想テーブル12、仮想ケーキ14、仮想フォーク16それぞれについて用意されることになる(図3参照)。   The virtual object initial setting data 520 is prepared for each virtual object other than the avatar character appearing in the game. In the present embodiment, the virtual lover 10, the virtual table 12, the virtual cake 14, and the virtual fork 16 are prepared (see FIG. 3).

1つの仮想オブジェクト初期設定データ520は例えば図12に示すように、固有の仮想オブジェクトID521と、当該仮想オブジェクトのモデルデータ522と、標準の表示形態を定義する標準表示形態523と、標準の動作を定義する標準動作524と、出現タイミング525と、初期配置位置526と、初期配置姿勢527と、対応付け開始条件528と、イベント対応設定データ530と、を含む。勿論、これら以外のデータも適宜含めることができる。   As shown in FIG. 12, for example, one virtual object initial setting data 520 includes a unique virtual object ID 521, model data 522 of the virtual object, a standard display mode 523 defining a standard display mode, and a standard operation. A standard operation 524 to be defined, an appearance timing 525, an initial arrangement position 526, an initial arrangement posture 527, an association start condition 528, and event correspondence setting data 530 are included. Of course, data other than these can be included as appropriate.

対応付け開始条件528は、コントローラ8と当該仮想オブジェクトとの対応づけを開始する条件である。対応付けされると、それが解除されるまで当該仮想オブジェクトはコントローラ8に対して追従制御されることとなる。本実施形態では、仮想ケーキ14に係る対応付け開始条件528には、仮想手20が所定の基準値以下の距離まで仮想ケーキ14に接近したことを示す距離を設定する。なお、コントローラ8の操作スイッチを使って、仮想フォーク16を仮想ケーキ14に刺す操作、或いは仮想ケーキ14を持つ操作の入力を当該条件に加えてもよい。   The association start condition 528 is a condition for starting association between the controller 8 and the virtual object. After being associated, the virtual object is controlled to follow the controller 8 until it is released. In the present embodiment, a distance indicating that the virtual hand 20 has approached the virtual cake 14 to a distance equal to or less than a predetermined reference value is set as the association start condition 528 relating to the virtual cake 14. Note that the operation switch of the controller 8 may be used to add an operation of stabbing the virtual fork 16 into the virtual cake 14 or an input of an operation of holding the virtual cake 14 to the condition.

イベント対応設定データ530は、当該仮想オブジェクトがイベントの発動に対応して特別な表示形態に変わったり特別な動作をする場合に設定される。
1つのイベント対応設定データ530は、1)当該設定データがどのイベントに適用されるかを定義する適用イベントID531と、2)当該イベントにおいて限定的に適用される当該仮想オブジェクトの表示形態を定義するイベント用表示形態532と、3)当該イベントにおいて限定的に適用される当該仮想オブジェクトの動作を定義するイベント用動作533と、4)当該イベント用動作を発動させる条件を定義するイベント用動作発動条件534と、を含む。勿論、これら以外のデータも適宜含めることができる。
The event correspondence setting data 530 is set when the virtual object changes to a special display mode or performs a special operation in response to the activation of the event.
One event correspondence setting data 530 defines 1) an applied event ID 531 that defines which event the setting data is applied to, and 2) a display mode of the virtual object that is limitedly applied in the event. An event display mode 532, 3) an event operation 533 defining an operation of the virtual object limitedly applied in the event, and 4) an event operation activation condition defining a condition for activating the event operation. 534. Of course, data other than these can be included as appropriate.

本実施形態では、仮想ケーキ14を持つ仮想手20が仮想恋人10に近づくと、仮想恋人10が仮想ケーキ14を迎えに行くような口を寄せる動作をするように設定されている。よって、仮想恋人10に係るイベント用動作533には、移動対象オブジェクトに口を寄せる動作を実現するためのデータが定義され、イベント用動作発動条件534には、仮想ケーキ14・仮想手20(コントローラ8又はそれを具備するプレーヤの身体部位である基準体)との相対距離の閾値が定義される   In the present embodiment, when the virtual hand 20 holding the virtual cake 14 approaches the virtual lover 10, the virtual lover 10 is set to perform an operation of approaching the virtual cake 14 to pick it up. Therefore, in the event operation 533 relating to the virtual lover 10, data for realizing the operation of approaching the moving target object is defined, and in the event operation activation condition 534, the virtual cake 14 / virtual hand 20 (controller 8 or a reference distance which is a body part of a player having the same is defined.

イベント定義データ540は、ゲーム内でプレーヤ2が仮想オブジェクトの移動・運搬を伴うイベント毎に用意され、当該イベントを実現するための各種データを格納する。本実施形態では、仮想ケーキ14を仮想恋人10の口に運ぶイベントの定義データが用意されている。   The event definition data 540 is prepared for each event involving movement and transportation of the virtual object by the player 2 in the game, and stores various data for realizing the event. In the present embodiment, definition data of an event that carries the virtual cake 14 to the mouth of the virtual lover 10 is prepared.

1つのイベント定義データ540は、例えば図13に示すように、1)固有のイベントID541と、2)当該イベントが開始される条件を定義するイベント開始条件542と、3)当該イベントが終了されるイベント終了条件543と、4)イベントにて移動される仮想オブジェクトを示す移動対象オブジェクトIDリスト544と、5)当該イベントにおける移動対象オブジェクトの移動目標位置Pm(図7〜図8参照)を定義する移動目標位置定義データ560と、6)理想状態設定区域30(図6参照)毎に用意される理想状態定義データ570と、を含む。勿論、これら以外のデータも適宜含めることができる。   As shown in FIG. 13, for example, one event definition data 540 includes 1) a unique event ID 541, 2) an event start condition 542 that defines a condition under which the event is started, and 3) the event is ended. An event end condition 543, 4) a moving object ID list 544 indicating a virtual object to be moved in the event, and 5) a moving target position Pm of the moving object in the event (see FIGS. 7 and 8) are defined. It includes movement target position definition data 560 and 6) ideal state definition data 570 prepared for each ideal state setting area 30 (see FIG. 6). Of course, data other than these can be included as appropriate.

移動目標位置定義データ560は、設定対象オブジェクトID561と、位置座標562と、を含む。   The movement target position definition data 560 includes a setting target object ID 561 and position coordinates 562.

設定対象オブジェクトID561は、移動目標位置Pmを仮想オブジェクトのある部分に設定する場合に、当該仮想オブジェクトの識別情報を格納する。仮想現実空間の特定場所に設定する場合には「NULL」が設定される。本実施形態では、仮想恋人10のオブジェクトIDが設定されることになる。   The setting object ID 561 stores identification information of the virtual object when the movement target position Pm is set to a certain part of the virtual object. “NULL” is set when setting a specific place in the virtual reality space. In the present embodiment, the object ID of the virtual lover 10 is set.

位置座標562には、移動目標位置Pmを仮想オブジェクトのある部分に設定する場合には、当該ある部分を特定するための当該仮想オブジェクトの代表点を基準とする相対位置座標が設定され、仮想現実空間の特定場所に設定する場合にはワールド座標系の特定座標が設定される。本実施形態では、仮想恋人10の口の位置座標が設定されることになる。   When the movement target position Pm is set to a certain part of the virtual object, relative position coordinates based on a representative point of the virtual object for specifying the certain part are set as the position coordinates 562, and the virtual reality is set. When a specific location in the space is set, specific coordinates in the world coordinate system are set. In the present embodiment, the position coordinates of the mouth of the virtual lover 10 are set.

1つの理想状態定義データ570は、例えば図14に示すように、理想状態設定区域定義データ571と、理想状態設定素材データ572とを含む。   One ideal state definition data 570 includes, for example, ideal state setting area definition data 571 and ideal state setting material data 572 as shown in FIG.

理想状態設定区域定義データ571は、理想状態設定区域30(図6参照)を定義する。移動対象オブジェクトが移動目標位置へ接近アプローチする方位の範囲として定義する。   The ideal state setting area definition data 571 defines the ideal state setting area 30 (see FIG. 6). It is defined as the range of the direction in which the moving target object approaches the moving target position.

理想状態設定素材データ572は、理想状態を設定するための素材となる各種データを格納する。本実施形態では、理想制御パラメータ値導出関数リスト573と、指定理想制御パラメータ値リスト574と、補正割合定義データ575と、を含む。理想制御パラメータ値導出関数リスト573と指定理想制御パラメータ値リスト574は、何れか一方が設定されると他方が未設定の状態とされる   The ideal state setting material data 572 stores various kinds of data as materials for setting the ideal state. In the present embodiment, an ideal control parameter value derivation function list 573, a specified ideal control parameter value list 574, and correction ratio definition data 575 are included. When either one of the ideal control parameter value derivation function list 573 and the specified ideal control parameter value list 574 is set, the other is in an unset state.

理想制御パラメータ値導出関数リスト573は、移動対象オブジェクト(本実施形態における仮想ケーキ14)の理想状態を実現する制御パラメータ値を、その都度算出する必要がある場合に設定され、制御パラメータ値毎に用意される導出関数が単数又は複数格納される。   The ideal control parameter value derivation function list 573 is set when it is necessary to calculate a control parameter value for realizing the ideal state of the movement target object (the virtual cake 14 in the present embodiment) each time, and for each control parameter value. One or more derived functions are stored.

本実施形態では、第1区域30a〜第4区域30dに対応づけられる理想制御パラメータ値導出関数リスト573では、仮想ケーキ14の理想状態の位置座標及び姿勢それぞれを導出する関数が格納される。特に姿勢を導出するための関数には、移動目標位置Pmが設定された仮想オブジェクト(仮想恋人10)の特定パラメータ(仮想恋人10の正面を示す単位方向:図7参照)を変数として含むように設定されている。なお、導出関数に換えて、距離Lに応じたテーブルデータとしてもよい。   In the present embodiment, in the ideal control parameter value derivation function list 573 associated with the first area 30a to the fourth area 30d, functions for deriving the position coordinates and the attitude of the virtual cake 14 in the ideal state are stored. In particular, the function for deriving the posture includes a specific parameter of the virtual object (virtual lover 10) in which the movement target position Pm is set (unit direction indicating the front of the virtual lover 10: see FIG. 7) as a variable. Is set. Note that table data corresponding to the distance L may be used instead of the derivation function.

指定理想制御パラメータ値リスト574は、移動対象オブジェクトの理想状態の制御パラメータ値を固定する場合に設定される。本実施形態では、警告区域30eに対応づけられる指定理想制御パラメータ値リスト574は、仮想ケーキ14が崩れ落ちたり、仮想フォーク16が滑り落ちたりする動作、仮想ケーキ14が明滅するなど、警告目的に用意された特定の理想状態を再現するための各種制御パラメータ値(位置・姿勢・動作・表示形態など)が含まれる。   The specified ideal control parameter value list 574 is set when fixing the control parameter values of the movement target object in the ideal state. In the present embodiment, the designated ideal control parameter value list 574 associated with the warning area 30e is prepared for a warning purpose such as an operation in which the virtual cake 14 collapses, the virtual fork 16 slides down, and the virtual cake 14 blinks. Various control parameter values (position, posture, operation, display form, etc.) for reproducing the specified specific ideal state are included.

補正割合定義データ575は、補正割合を決定するためのデータである。本実施形態では、距離L(図7,図8参照)を変数とした補正割合導出関数f1(図9参照)又はそれに相当するテーブルデータとする。   The correction ratio definition data 575 is data for determining a correction ratio. In the present embodiment, the correction ratio derivation function f1 (see FIG. 9) using the distance L (see FIGS. 7 and 8) as a variable or table data corresponding thereto.

図11に戻って、プレイデータ700は、ゲームプレイ毎に用意され、ゲーム進行状況を記述する各種データを格納する。本実施形態ではシングルプレイを前提として説明しているので1つのみ図示しているが、マルチプレイの場合には複数用意されることになる。   Returning to FIG. 11, the play data 700 is prepared for each game play and stores various data describing the progress of the game. In the present embodiment, since only the single play has been described, only one is shown, but in the case of multi play, a plurality is prepared.

1つのプレイデータ700は、プレーヤアカウント701と、プレイ開始日時703と、HMDトラッキングデータ705と、コントローラトラッキングデータ707と、仮想現実空間制御データ710と、を含む。勿論、これら以外のデータも適宜含めることができる。   One piece of play data 700 includes a player account 701, a play start date / time 703, HMD tracking data 705, controller tracking data 707, and virtual reality space control data 710. Of course, data other than these can be included as appropriate.

HMDトラッキングデータ705と、コントローラトラッキングデータ707は、それぞれHMD6及びコントローラ8のプレイフィールド内の位置と姿勢の追跡データであって、トラッキング処理により逐一更新される。   The HMD tracking data 705 and the controller tracking data 707 are tracking data of the position and the attitude in the play field of the HMD 6 and the controller 8, respectively, and are updated one by one by the tracking process.

仮想現実空間制御データ710は、仮想現実空間に設定される各種要素の制御データを格納する。例えば図15に示すように、右眼用仮想カメラ制御データ711と、左眼用仮想カメラ制御データ712と、アバターキャラクタ制御パラメータ値リスト720と、仮想オブジェクト制御パラメータ値リスト730と、移動目標位置座標740と、距離742と、理想制御パラメータ値リスト744と、補正割合746と、目標制御パラメータ値リスト748と、を含む。勿論、これら以外のデータも適宜含めることができる。   The virtual reality space control data 710 stores control data of various elements set in the virtual reality space. For example, as shown in FIG. 15, right-eye virtual camera control data 711, left-eye virtual camera control data 712, avatar character control parameter value list 720, virtual object control parameter value list 730, and movement target position coordinates 740, a distance 742, an ideal control parameter value list 744, a correction ratio 746, and a target control parameter value list 748. Of course, data other than these can be included as appropriate.

右眼用仮想カメラ制御データ711と、左眼用仮想カメラ制御データ712は、仮想現実空間内におけるプレーヤの頭部に設定された右眼用仮想カメラ及び左眼用仮想カメラの制御データであって、それぞれ、仮想現実空間内における配置位置座標と姿勢データとを含み、HMDトラッキングデータ705に基づいて逐一変更される。右眼用仮想カメラ及び左眼用仮想カメラは、それぞれHMD6にて右眼/左眼用として表示する仮想現実空間の画像を撮影する。   The right-eye virtual camera control data 711 and the left-eye virtual camera control data 712 are control data of the right-eye virtual camera and the left-eye virtual camera set at the player's head in the virtual reality space. , Each of which includes arrangement position coordinates and attitude data in the virtual reality space, and is changed one by one based on the HMD tracking data 705. The virtual camera for the right eye and the virtual camera for the left eye each capture an image of the virtual reality space displayed for the right eye / left eye on the HMD 6.

アバターキャラクタ制御パラメータ値リスト720は、仮想現実空間におけるプレーヤの代理としての存在であるアバターキャラクタの制御に係る各種データを格納する。本実施形態では、仮想手20(図3参照)に係る制御パラメータ値を格納する仮想手制御パラメータ値リスト721を含む。勿論、図示はされていないが、アバターキャラクタの各身体部位の位置や姿勢を示すデータが適宜含まれている。   The avatar character control parameter value list 720 stores various data related to the control of the avatar character that is a proxy for the player in the virtual reality space. This embodiment includes a virtual hand control parameter value list 721 that stores control parameter values related to the virtual hand 20 (see FIG. 3). Of course, although not shown, data indicating the position and posture of each body part of the avatar character is appropriately included.

仮想オブジェクト制御パラメータ値リスト730は、アバターキャラクタ以外でゲームに登場する各種仮想オブジェクト毎に用意され、当該オブジェクトの状態を管理するための各種制御パラメータ値を格納する。本実施形態では、仮想恋人10、仮想テーブル12、仮想ケーキ14、仮想フォーク16それぞれについて用意されることになる。   The virtual object control parameter value list 730 is prepared for each virtual object appearing in the game other than the avatar character, and stores various control parameter values for managing the state of the object. In the present embodiment, the virtual lover 10, the virtual table 12, the virtual cake 14, and the virtual fork 16 are prepared.

そして、1つの仮想オブジェクト制御パラメータ値リスト730は、位置座標731と、姿勢732と、動作制御パラメータ値733と、表示形態設定データ734と、を含む。勿論、これら以外のデータも適宜含めることができる。   One virtual object control parameter value list 730 includes a position coordinate 731, a posture 732, an operation control parameter value 733, and display mode setting data 734. Of course, data other than these can be included as appropriate.

移動目標位置座標740は、移動目標位置Pmの位置座標を示す(図6〜図8参照)。
距離742は、移動目標位置Pmと移動対象オブジェクト(本実施形態では仮想ケーキ14)又は当該オブジェクトを運ぶ基準体(コントローラ8又はコントローラを持つ手)との距離である。
The movement target position coordinates 740 indicate the position coordinates of the movement target position Pm (see FIGS. 6 to 8).
The distance 742 is the distance between the movement target position Pm and the movement target object (the virtual cake 14 in this embodiment) or the reference body (the controller 8 or the hand holding the controller) that carries the object.

理想制御パラメータ値リスト744は、理想状態を記述する各種制御パラメータ値を格納する。理想状態定義データ570に基づいて算出された結果が格納される(図14参照)。   The ideal control parameter value list 744 stores various control parameter values that describe an ideal state. The result calculated based on the ideal state definition data 570 is stored (see FIG. 14).

補正割合746は、その時適用される補正割合を格納する。補正割合定義データ575に基づいて求められた結果が格納される(図14参照)。   The correction ratio 746 stores the correction ratio applied at that time. The result obtained based on the correction ratio definition data 575 is stored (see FIG. 14).

目標制御パラメータ値リスト748は、移動対象オブジェクトの仮想オブジェクト制御パラメータ値リスト730が補正されるべき目標値を格納する。本実施形態では、移動対象オブジェクトの現状と理想状態との間に補正割合746に応じて中割りされた値が格納されることになる(図9参照)。   The target control parameter value list 748 stores a target value to which the virtual object control parameter value list 730 of the movement target object should be corrected. In the present embodiment, a value divided between the current state and the ideal state of the movement target object according to the correction ratio 746 is stored (see FIG. 9).

[動作の説明]
図16は、ゲームシステム1000における処理の流れについて説明するためのフローチャートである。ここで説明する処理の流れは、処理部200がシステムプログラム501とゲームプログラム503とを実行することにより実現される。
[Description of operation]
FIG. 16 is a flowchart for describing the flow of processing in game system 1000. The processing flow described here is realized by the processing unit 200 executing the system program 501 and the game program 503.

ゲームシステム1000は、先ずログインしたユーザ向けに新たなプレイデータ700を用意して、仮想3次元空間に仮想現実空間を形成する(ステップS4)。
すなわち、仮想現実空間初期設定データ510及び仮想オブジェクト初期設定データ520(図11参照)に基づいて、仮想3次元空間に各種仮想オブジェクトを配置して仮想現実空間を形成し、そこに右眼用仮想カメラと、左眼用仮想カメラと、アバターキャラクタ(仮想手20を含む)などを配置する。
The game system 1000 first prepares new play data 700 for the logged-in user, and forms a virtual reality space in the virtual three-dimensional space (step S4).
That is, based on the virtual reality space initial setting data 510 and the virtual object initial setting data 520 (see FIG. 11), various virtual objects are arranged in a virtual three-dimensional space to form a virtual reality space, and the right eye virtual A camera, a virtual camera for the left eye, an avatar character (including the virtual hand 20), and the like are arranged.

次に、ゲームシステム1000は、HMD6とコントローラ8のトラッキングを開始し(ステップS6)、それぞれのトラッキングの結果に応じて右眼用仮想カメラ及び左眼用仮想カメラ、アバターキャラクタ(仮想手20を含む)の追従制御を開始する(ステップS8)。   Next, the game system 1000 starts tracking between the HMD 6 and the controller 8 (step S6), and according to the respective tracking results, the right-eye virtual camera, the left-eye virtual camera, and the avatar character (including the virtual hand 20). ) Is started (step S8).

これ以降、HMD6にはプレーヤ2の頭部の向きに応じた仮想現実空間の景色が立体視として表示される。プレーヤ2が手に持っているコントローラ8の実空間の位置に仮想手20(図3参照)が追従するので、プレーヤ2が自分の手を見ようと頭の向き或いは手の位置を調整すれば、仮想現実空間の景色の中に仮想手20が見えるようになる。つまり、VR体験としての基本的な視覚要素が実現される。   Thereafter, the HMD 6 displays the scene of the virtual reality space according to the direction of the head of the player 2 as a stereoscopic view. Since the virtual hand 20 (see FIG. 3) follows the position of the real space of the controller 8 held by the player 2 in the hand, if the player 2 adjusts the direction of the head or the position of the hand to see his / her own hand, The virtual hand 20 becomes visible in the scene of the virtual reality space. That is, a basic visual element as a VR experience is realized.

次に、ゲームシステム1000は、ゲームを開始する(ステップS30)。そして、イベント定義データ540(図13参照)を参照して、イベント開始条件542が満たされたイベントが有れば(ステップS32のYES)、当該イベントを発動させる(ステップS34)。   Next, the game system 1000 starts a game (Step S30). Then, referring to the event definition data 540 (see FIG. 13), if there is an event that satisfies the event start condition 542 (YES in step S32), the event is activated (step S34).

具体的には、本実施形態のイベントは、移動対象オブジェクトを移動させる要素を含むので、該当するイベント定義データ540の移動対象オブジェクトIDリスト544の示す仮想オブジェクトの仮想オブジェクト初期設定データ520を参照して(図12参照)、初期配置位置526に初期配置姿勢527を実現するように仮想現実空間に配置する。当該発動したイベント対応設定データ530がある場合には、当該データが適用されるものとする。   Specifically, since the event according to the present embodiment includes an element that moves the movement target object, the event definition data 540 refers to the virtual object initial setting data 520 of the virtual object indicated by the movement target object ID list 544. (See FIG. 12), the object is arranged in the virtual reality space so as to realize the initial arrangement posture 527 at the initial arrangement position 526. If there is the activated event correspondence setting data 530, the data is applied.

なお、本実施形態では、移動対象オブジェクトは仮想現実空間内に配置されたばかりで、コントローラ8又は当該コントローラを具備するプレーヤの身体部位である基準体(以下、コントローラ8とする。)との対応づけはされていない。勿論、ゲーム内容、イベント内容によっては、初期配置の段階で、移動対象オブジェクトとコントローラ8の対応づけが行われる場合があってもよい。   In the present embodiment, the movement target object has just been placed in the virtual reality space, and is associated with the controller 8 or a reference body (hereinafter, referred to as the controller 8) which is a body part of a player including the controller. Has not been. Of course, depending on the content of the game and the content of the event, the association between the movement target object and the controller 8 may be performed at the stage of the initial arrangement.

次に、ゲームシステム1000は、配置済みの移動対象オブジェクトの対応付け開始条件528(図12参照)が満たされているかを判定する(ステップS36)。   Next, the game system 1000 determines whether or not the association start condition 528 (see FIG. 12) of the arranged movement target object is satisfied (Step S36).

そして、対応付け開始条件が満たされていれば(ステップS36のYES)、ゲームシステム1000は、配置済みの移動対象オブジェクトとコントローラ8との対応付けを開始する(ステップS38)。両者が対応付けされることにより、ゲームシステム1000は、これ以降、当該時点におけるコントローラ8と移動対象オブジェクトの双方の位置及び姿勢が、当該時点における相対関係(又は所与の相対関係)を維持するように、移動対象オブジェクトをコントローラ8とが一体に移動制御される。本実施形態では、仮想ケーキ14・仮想フォーク16・仮想手20がこれ以降、一体的に仮想現実空間内を移動するようになる。そして、ゲームシステム1000は、制御パラメータ値変更処理を実行する(ステップS40)。   Then, if the association start condition is satisfied (YES in step S36), the game system 1000 starts associating the arranged moving target object with the controller 8 (step S38). By associating the two, the game system 1000 thereafter maintains the relative position (or given relative relationship) of the position and orientation of both the controller 8 and the movement target object at that time. In this way, the movement of the object to be moved is controlled integrally with the controller 8. In the present embodiment, the virtual cake 14, the virtual fork 16, and the virtual hand 20 subsequently move integrally in the virtual reality space. Then, the game system 1000 executes a control parameter value changing process (Step S40).

図17は、制御パラメータ値変更処理の流れを説明するためのフローチャートである。同処理は、移動対象オブジェクトの追従状態を補正する補正処理と言い換えることもできる。   FIG. 17 is a flowchart for explaining the flow of the control parameter value changing process. This process can be rephrased as a correction process for correcting the following state of the movement target object.

同処理において、ゲームシステム1000は、先ず移動目標位置Pmを設定する(ステップS60)。具体的には、現在発動されているイベントのイベント定義データ540(図13参照)の移動目標位置定義データ560に従って、プレイデータ700に移動目標位置座標740を設定する(図15参照)。設定対象オブジェクトID561が何れかの仮想オブジェクトを示している場合は、移動目標位置座標740は、逐一当該仮想オブジェクトの代表位置に対して位置座標562が示す相対位置座標を維持するように逐次更新される。   In the process, the game system 1000 first sets the movement target position Pm (Step S60). Specifically, the movement target position coordinates 740 are set in the play data 700 according to the movement target position definition data 560 of the event definition data 540 (see FIG. 13) of the currently activated event (see FIG. 15). When the setting target object ID 561 indicates one of the virtual objects, the movement target position coordinates 740 are sequentially updated so as to maintain the relative position coordinates indicated by the position coordinates 562 with respect to the representative position of the virtual object. You.

次に、ゲームシステム1000は、対応付けされた移動対象オブジェクトが何れの理想状態設定区域30(図6参照)に存在するかを判定する(ステップS62)。具体的には、現在発動されているイベントのイベント定義データ540の理想状態定義データ570それぞれの理想状態設定区域定義データ571(図14参照)と、移動対象オブジェクト又はコントローラ8又は仮想手20の位置とを比較して判定する。   Next, the game system 1000 determines in which ideal state setting area 30 (see FIG. 6) the associated movement target object exists (Step S62). More specifically, the ideal state setting area definition data 571 (see FIG. 14) of the ideal state definition data 570 of the event definition data 540 of the currently activated event and the position of the object to be moved or the controller 8 or the virtual hand 20 Is determined by comparing with.

そして、移動対象オブジェクトが存在する理想状態設定区域30の理想状態設定素材データ572に基づいて理想状態を設定する(ステップS64)。具体的には、移動対象オブジェクトが存在する理想状態設定区域30の理想状態設定素材データ572に基づいて、プレイデータ700に理想制御パラメータ値リスト744を設定する(図15参照)。   Then, an ideal state is set based on the ideal state setting material data 572 of the ideal state setting area 30 where the movement target object exists (step S64). Specifically, an ideal control parameter value list 744 is set in the play data 700 based on the ideal state setting material data 572 of the ideal state setting area 30 in which the movement target object exists (see FIG. 15).

次に、ゲームシステム1000は、移動対象オブジェクトと移動目標位置Pmとの距離742(図15参照)を算出する(ステップS66)。そして、移動対象オブジェクトが存在する理想状態設定区域30の補正割合定義データ575(図14参照)に従って適用する補正割合746(図15参照)を決定する(ステップS68)。   Next, the game system 1000 calculates a distance 742 (see FIG. 15) between the movement target object and the movement target position Pm (Step S66). Then, a correction ratio 746 (see FIG. 15) to be applied is determined according to the correction ratio definition data 575 (see FIG. 14) of the ideal state setting area 30 in which the moving object exists (step S68).

次に、ゲームシステム1000は、移動対象オブジェクトが理想状態になっているかを判定する(ステップS80)。   Next, the game system 1000 determines whether the movement target object is in an ideal state (Step S80).

ここでもし否定ならば(ステップS80のNO)、移動対象オブジェクトの仮想オブジェクト制御パラメータ値リスト730と理想制御パラメータ値リスト744と補正割合746とに基づいて、目標制御パラメータ値リスト748を決定する(ステップS82;図9参照)。   Here, if negative (NO in step S80), the target control parameter value list 748 is determined based on the virtual object control parameter value list 730, the ideal control parameter value list 744, and the correction ratio 746 of the moving object (step S80). Step S82; see FIG. 9).

そして、ゲームシステム1000は、移動対象オブジェクトの仮想オブジェクト制御パラメータ値リスト730の各値を目標制御パラメータ値リスト748の値に変更し(ステップS84)、移動対象オブジェクト及びこれと一体的に移動する仮想オブジェクトの表示を更新する(ステップS86)。   Then, the game system 1000 changes each value of the virtual object control parameter value list 730 of the moving object to the value of the target control parameter value list 748 (step S84), and moves the moving object and the virtual object moving integrally therewith. The display of the object is updated (step S86).

次に、移動目標位置が仮想オブジェクトに設定されているか判定する(ステップS100)。本実施形態の例では、移動目標位置Pmは仮想恋人10の口に設定されているので肯定となる。   Next, it is determined whether or not the movement target position has been set for the virtual object (step S100). In the example of the present embodiment, since the movement target position Pm is set in the mouth of the virtual lover 10, the result is positive.

そして、肯定の場合で(ステップS100のYES)、且つ当該イベントに対応するイベント対応設定データ530(図12参照)が設定されていてそのイベント用動作発動条件534が満たされるならば(ステップS102のYES)、ゲームシステム1000は、当該仮想オブジェクトのイベント用動作533を発動させる(ステップS104)。本実施形態では、仮想恋人10が口を仮想ケーキ14に寄せるような動作を開始することになる。   If the result is affirmative (YES in step S100), and if the event correspondence setting data 530 (see FIG. 12) corresponding to the event is set and the event operation trigger condition 534 is satisfied (step S102). YES), the game system 1000 activates the event operation 533 of the virtual object (Step S104). In the present embodiment, an operation in which the virtual lover 10 brings the mouth to the virtual cake 14 is started.

ステップS62〜S104は、移動対象オブジェクトが移動目標位置Pmに到達するまで繰り返され(ステップS110のNO)、移動目標位置Pmに到達すると(ステップS110のYES)、制御パラメータ値変更処理を終了する。   Steps S62 to S104 are repeated until the movement target object reaches the movement target position Pm (NO in step S110). When the movement target object reaches the movement target position Pm (YES in step S110), the control parameter value changing process ends.

図16に戻って、ゲームシステム1000は、ステップS32〜S40をゲーム終了条件が満たされるまで繰り返し(ステップS130のNO)、ゲーム終了条件が満たされると(ステップS130のYES)、一連の処理を終了する。   Returning to FIG. 16, the game system 1000 repeats steps S32 to S40 until the game end condition is satisfied (NO in step S130). When the game end condition is satisfied (YES in step S130), a series of processing ends. I do.

以上、本実施形態によれば、VRにおけるユーザサポートを向上するための技術、換言するとVRにおける没入感を阻害させない技術を提供することができる。すなわち、仮想現実空間内で移動対象オブジェクトを移動目標位置Pm(到達目標位置)まで移動させるシーンにおいて、移動対象オブジェクトを所与の理想の姿勢で到達させるために、トラッキング誤差が生じているために、コントローラ8を持つ手を不自然な方向に曲げなければならないような事態を低減できる。そして、無理な操作がきっかけとなるVRのリアリティ感の毀損を防止し、ゲームストーリのスムーズな進行を助けることができる。   As described above, according to the present embodiment, it is possible to provide a technique for improving user support in VR, in other words, a technique that does not hinder the immersion feeling in VR. That is, in a scene in which the movement target object is moved to the movement target position Pm (the destination target position) in the virtual reality space, a tracking error occurs because the movement target object reaches the given ideal posture. Thus, it is possible to reduce the situation where the hand holding the controller 8 must be bent in an unnatural direction. In addition, it is possible to prevent the sense of reality of the VR from being impaired due to an unreasonable operation, and to facilitate the smooth progress of the game story.

〔変形例〕
以上、本発明を適用した実施形態の一例について説明したが、本発明を適用可能な形態は上記形態に限定されるものではなく適宜構成要素の追加・省略・変更を施すことができる。
(Modification)
As described above, an example of the embodiment to which the present invention is applied has been described. However, the form to which the present invention can be applied is not limited to the above-described form, and constituent elements can be appropriately added, omitted, or changed.

[その1]
例えば、上記実施形態では、VR体験をゲームとして説明したが、ゲームのジャンルや内容は適宜設定可能である。また、ゲームではなく、仮想の世界を旅したり探索するといったVR体験を提供するものであってもよい。
[Part 1]
For example, in the above embodiment, the VR experience was described as a game, but the genre and content of the game can be set as appropriate. Instead of a game, a VR experience such as traveling or searching in a virtual world may be provided.

[その2]
また、ゲームジャンルやゲーム内、VR体験を提供形態に応じて、プレーヤ(ユーザ)が仮想現実空間内で移動させる仮想オブジェクトの種類や状況は適宜設定可能である。仮想現実空間におけるモノとしての役割に応じて、その仮想現実空間におけるサイズや特性も適宜設定可能である。
[Part 2]
In addition, the type and situation of the virtual object that the player (user) moves in the virtual reality space can be appropriately set according to the game genre, the game, and the VR experience providing mode. Depending on the role of the object in the virtual reality space, its size and characteristics in the virtual reality space can be set as appropriate.

例えば、移動対象オブジェクトは仮想ケーキ14のままとし、移動目標位置Pmをプレーヤのアバターキャラクタの口に設定すれば、プレーヤが自らケーキを口に運んで食べるシーンに本発明を適用できる。
具体的には、イベント定義データ540(図13参照)の移動目標位置定義データ560では、設定対象オブジェクトID561にアバターキャラクタを示すIDを設定し、位置座標562にアバターキャラクタの口位置(例えば、右眼用仮想カメラ及び左眼用仮想カメラを両眼と見なして、そこから所定距離下方の位置)を設定する。
そして、アバターキャラクタ制御パラメータ値リスト720(図15参照)に、アバターキャラクタの口位置と口の向きとを含む仮想口制御パラメータ値を用意する。仮想口制御パラメータ値の口位置は、右眼用仮想カメラ又は左眼用仮想カメラに対して所定の相対位置に有るとし、仮想口制御パラメータ値の口の向きは、右眼用仮想カメラ又は左眼用仮想カメラの向きと同方向とすることができる。
For example, if the object to be moved is the virtual cake 14 and the movement target position Pm is set in the mouth of the avatar character of the player, the present invention can be applied to a scene in which the player carries the cake by himself and eats it.
Specifically, in the movement target position definition data 560 of the event definition data 540 (see FIG. 13), an ID indicating the avatar character is set as the setting target object ID 561, and the avatar character's mouth position (for example, right The virtual camera for the eye and the virtual camera for the left eye are regarded as both eyes, and a position that is a predetermined distance below them is set.
Then, virtual mouth control parameter values including the mouth position and the mouth direction of the avatar character are prepared in the avatar character control parameter value list 720 (see FIG. 15). The mouth position of the virtual mouth control parameter value is at a predetermined relative position with respect to the right eye virtual camera or the left eye virtual camera, and the mouth direction of the virtual mouth control parameter value is the right eye virtual camera or the left eye virtual camera. The direction can be the same as the direction of the ophthalmic virtual camera.

また、移動対象オブジェクトの役割によっては、1つの移動オブジェクトに設定される移動目標位置Pmも複数設定してもよい。例えば、移動対象オブジェクトをテーブルに置かれている仮想スマートフォンとする場合、移動目標位置Pmをプレーヤのアバターキャラクタの右耳と左耳と顔の正面との3箇所に設定することができる。この場合、これら移動目標位置Pm毎に、当該移動目標位置Pmで仮想スマートフォンを使用するために理想とされる仮想スマートフォンの姿勢の分け方によって、理想状態設定区域30を単数又は複数用意すればよい。そして、理想状態では正面スピーカが耳元に向く状態を理想状態に設定すればよい。   Further, depending on the role of the moving object, a plurality of moving target positions Pm set for one moving object may be set. For example, when the object to be moved is a virtual smartphone placed on a table, the movement target position Pm can be set at three places of the right and left ears of the avatar character of the player and the front of the face. In this case, one or more ideal state setting areas 30 may be prepared for each of the movement target positions Pm, depending on how to divide the posture of the virtual smartphone that is ideal for using the virtual smartphone at the movement target position Pm. . Then, in the ideal state, the state where the front speaker faces the ear may be set to the ideal state.

またその他の例としては、移動対象オブジェクトを鍵とし、移動目標位置Pmをドアの鍵穴とすることもできる。この場合、鍵の理想状態は鍵の長手方向とドアの鍵穴の向きとが合った状態とすればよい。
もし、ゲーム世界の設定がファンタジーであれば、移動対象オブジェクトの元の姿は「妖精」であるが、移動目標位置Pmに接近するにつれて「鍵」に姿を変えてゆくといった表示モデルの変形要素も追加可能である。具体的には、移動体オブジェクトの仮想オブジェクト初期設定データ520(図12参照)のモデルデータ522に「妖精」の表示モデルを設定し、イベント対応設定データ530のイベント表示形態532に「鍵」の表示モデルを設定すればよい。そして、ステップS82及びS84(図17参照)にて、移動目標位置Pmに近づくにつれて、仮想オブジェクト制御パラメータ値リスト730(図15参照)の表示形態設定データ734を、「妖精」の表示モデルから「鍵」の表示モデルへ補正割合746に応じてモーフィングしたように変更すればよい。
As another example, the movement target object may be used as a key, and the movement target position Pm may be used as a keyhole of a door. In this case, the ideal state of the key may be a state in which the longitudinal direction of the key matches the direction of the keyhole of the door.
If the setting of the game world is fantasy, the original shape of the movement target object is “fairy”, but the shape changes to a “key” as it approaches the movement target position Pm. Can also be added. Specifically, the display model of “fairy” is set in the model data 522 of the virtual object initial setting data 520 (see FIG. 12) of the moving object, and the “key” is set in the event display form 532 of the event correspondence setting data 530. What is necessary is just to set a display model. Then, in steps S82 and S84 (see FIG. 17), as the vehicle approaches the movement target position Pm, the display mode setting data 734 of the virtual object control parameter value list 730 (see FIG. 15) is changed from the "fairy" display model to " What is necessary is just to change to the display model of "key" so that it is morphed according to the correction ratio 746.

また、移動対象オブジェクトを赤ちゃんとして、移動目標位置Pmをその母親の胸元又は背中としてもよい。この場合、前者ならば理想状態は母親が赤ちゃんを抱きかかえ易い姿勢とすれば良いし、後者ならば母親が赤ちゃんをおんぶし易い姿勢とすればよい。   Alternatively, the movement target object may be a baby, and the movement target position Pm may be the mother's chest or back. In this case, in the former case, the ideal state may be a posture in which the mother easily holds the baby, and in the latter case, the mother may be in a posture in which the mother easily mounts the baby.

[その3]
また、上記実施形態では、移動対象オブジェクトの姿勢を補正する例を示したが、姿勢の補正を省略する構成も可能である。また、移動対象オブジェクトの移動目標位置Pmへの到達判定をコリジョン判定により実現することもできる。
[Part 3]
In the above embodiment, an example in which the posture of the movement target object is corrected has been described. However, a configuration in which the posture correction is omitted may be possible. In addition, the arrival determination of the movement target object to the movement target position Pm can be realized by the collision determination.

具体的には、例えば、RPGにおいて、プレーヤが仲間のNPCの傷を治療するイベントとする。その設定として、1)移動対象オブジェクトを、アバターキャラクタが手に持った治療魔法のポーションとし、2)移動目標位置PmをNPCの傷口を含むコリジョン判定エリア(移動目標エリア)として設定し、3)移動対象オブジェクトの表示モデルを、移動目標位置Pmに近づくと光の球に変形させる表示形態の変更設定とし、4)光の球(変形後の表示モデル)の大きさを元の治療魔法のポーションよりも大きく設定する。そして、5)移動対象オブジェクトの移動目標位置Pmへの到達判定を、光の球の表示モデルと、移動目標エリアとのコリジョン判定で行う。
この場合、トラッキングズレが生じていても、移動対象オブジェクトの位置や姿勢を補正しなくとも、光の球が傷口に近づけばイベントの目的は達せられることになる。つまり、VRにおけるユーザサポートを向上できる。
Specifically, for example, in the RPG, an event in which a player treats a wound of a fellow NPC is set. As the setting, 1) the object to be moved is a therapeutic magic potion held by the avatar character, 2) the movement target position Pm is set as a collision determination area (move target area) including the NPC wound, and 3) The display model of the object to be moved is changed to a display mode in which the display model is transformed into a light sphere when approaching the movement target position Pm. 4) The size of the light sphere (display model after deformation) is changed to the original treatment magic potion. Set larger than Then, 5) the arrival determination of the movement target object to the movement target position Pm is performed by collision determination between the display model of the light sphere and the movement target area.
In this case, even if a tracking error occurs, the purpose of the event can be achieved if the light sphere approaches the wound without correcting the position or orientation of the moving target object. That is, user support in VR can be improved.

[その4]
また、トラッキング技術は適宜選定可能であると述べたが、例えば図18で示すゲームシステム1000Bのように、プレーヤ2を正面から撮影するカメラや、プレーヤ2の正面各部までの距離を測定する測距センサを備えたセンサユニット70を用いて、プレーヤ2の骨格の動作を認識するタイプのジェスチャー認識技術を用いて、上記実施形態のヘッドトラッキング及びコントローラトラッキングの代用とすることができる。この場合、コントローラ8をトラッキングするというよりも、コントローラ8を具備する身体部位(図の例では手)を基準体としてトラッキングすることになる。
[Part 4]
In addition, it has been described that the tracking technique can be appropriately selected. However, for example, as in a game system 1000B shown in FIG. 18, a camera for photographing the player 2 from the front or a distance measurement for measuring the distance to each part of the front of the player 2 Using the gesture recognition technology of the type that recognizes the movement of the skeleton of the player 2 using the sensor unit 70 having the sensor, the head tracking and the controller tracking of the above embodiment can be substituted. In this case, tracking is performed using the body part (the hand in the example in the figure) having the controller 8 as a reference body, rather than tracking the controller 8.

[その5]
また、上記実施形態では、移動対象オブジェクトが移動目標位置Pmに到達するまで制御パラメータ値を理想状態に近づけるように補正変更を行う構成であったが、ある程度まで移動目標位置Pmに接近すると、以降移動目標位置Pmに到達するまでを自動のアニメーション処理にて実現するとしてもよい。
[Part 5]
Further, in the above-described embodiment, the correction change is performed so that the control parameter value approaches the ideal state until the movement target object reaches the movement target position Pm. The process until the movement target position Pm is reached may be realized by automatic animation processing.

その場合、図19に示すように、ゲームシステム1000は、ゲーム進行制御部210に自動移動制御部228を追加すればよい。   In this case, as shown in FIG. 19, the game system 1000 may add an automatic movement control unit 228 to the game progress control unit 210.

自動移動制御部228は、変更制御発動条件(上記実施形態におけるイベント開始条件542)が満たされた後、移動対象オブジェクト(移動される仮想オブジェクト)からその移動目標位置Pm(到達位置)までの距離が所与の近接条件を満たした場合に、自動的に当該仮想オブジェクトの位置を到達位置に移動させる自動移動制御を実行する。   After the change control activation condition (the event start condition 542 in the above embodiment) is satisfied, the automatic movement control unit 228 determines the distance from the movement target object (the virtual object to be moved) to the movement target position Pm (the arrival position). Performs automatic movement control for automatically moving the position of the virtual object to the destination when the given proximity condition is satisfied.

そして、図20に示すように、自動移動制御を実現するために理想状態設定区域30毎に自動移動定義データ580を追加する。
1つの自動移動定義データ580は、理想状態設定区域定義データ581と、近接条件582と、自動移動データ583とを含む。勿論、これら以外のデータも適宜含めることができる。
Then, as shown in FIG. 20, automatic movement definition data 580 is added for each ideal state setting area 30 in order to realize automatic movement control.
One automatic movement definition data 580 includes ideal state setting area definition data 581, proximity condition 582, and automatic movement data 583. Of course, data other than these can be included as appropriate.

近接条件582は、移動対象オブジェクトと移動目標位置Pmとの距離の閾値が設定される。その値は、移動対象オブジェクトのゲーム内における役割、大きさ、移動目標位置Pmの位置関係などに応じて適宜設定可能である。ただし、アニメーションが発動されると、プレーヤの目には、移動対象オブジェクトが移動目標位置Pmに勝手に動いていったかのように不自然な動きとして見える可能性があるので、設定する値には注意を要する。   In the proximity condition 582, a threshold value of the distance between the movement target object and the movement target position Pm is set. The value can be set as appropriate according to the role and size of the movement target object in the game, the positional relationship of the movement target position Pm, and the like. However, when the animation is activated, the player may see the movement target object as an unnatural movement as if the movement target object has moved to the movement target position Pm. Cost.

そして、図21に示すように、制御パラメータ値変更処理において、距離Lを算出したならば、近接条件582が満たされているかを判定するステップを追加する(ステップS67)。そして、満たされている場合にはステップS68〜S86をスキップし、代わりに、自動移動データ583に従った移動対象オブジェクトの自動移動、いわゆる自動アニメーションを実行する(ステップS69)。なお、自動移動制御を実行している間は、移動対象オブジェクトのコントローラ8への対応付けは解除し、コントローラ8への追従制御は行わないものとする。   Then, as shown in FIG. 21, when the distance L is calculated in the control parameter value changing process, a step of determining whether the proximity condition 582 is satisfied is added (step S67). If the condition is satisfied, steps S68 to S86 are skipped, and instead, a so-called automatic animation of the automatic movement of the movement target object according to the automatic movement data 583 is executed (step S69). During the execution of the automatic movement control, the association of the object to be moved with the controller 8 is released, and the control for following the controller 8 is not performed.

2…プレーヤ
6…HMD
7…トラッキング用カメラ
8…コントローラ
10…仮想恋人
12…仮想テーブル
14…仮想ケーキ
16…仮想フォーク
20…仮想手
30…理想状態設定区域
30e…警告区域
200…処理部
210…ゲーム進行制御部
212…仮想現実空間設定部
214…HMDトラッキング部
216…コントローラトラッキング部
218…追従制御部
220…到達位置設定部
222…到達状態設定部
224…変更制御部
226…キャラクタ制御部
228…自動移動制御部
500…記憶部
501…システムプログラム
503…ゲームプログラム
510…仮想現実空間初期設定データ
516…アバターキャラクタ初期設定データ
520…仮想オブジェクト初期設定データ
528…対応付け開始条件
530…イベント対応設定データ
533…イベント用動作
534…イベント用動作発動条件
540…イベント定義データ
544…移動対象オブジェクトIDリスト
560…移動目標位置定義データ
570…理想状態定義データ
571…理想状態設定区域定義データ
572…理想状態設定素材データ
573…理想制御パラメータ値導出関数リスト
574…指定理想制御パラメータ値リスト
575…補正割合定義データ
580…自動移動定義データ
582…近接条件
583…自動移動データ
700…プレイデータ
705…HMDトラッキングデータ
707…コントローラトラッキングデータ
710…仮想現実空間制御データ
720…アバターキャラクタ制御パラメータ値リスト
730…仮想オブジェクト制御パラメータ値リスト
731…位置座標
732…姿勢
733…動作制御パラメータ値
734…表示形態設定データ
740…移動目標位置座標
742…距離
744…理想制御パラメータ値リスト
746…補正割合
748…目標制御パラメータ値リスト
1000…ゲームシステム
1100…ゲーム制御装置
1150…制御基板
L…距離
Lc…補正制御発動条件距離
Pm…移動目標位置
f1…補正導出関数
2: Player 6: HMD
7 tracking camera 8 controller 10 virtual lover 12 virtual table 14 virtual cake 16 virtual fork 20 virtual hand 30 ideal state setting area 30 e warning area 200 processing section 210 game progress control section 212 Virtual reality space setting unit 214 HMD tracking unit 216 Controller tracking unit 218 Tracking control unit 220 Arrival position setting unit 222 Arrival state setting unit 224 Change control unit 226 Character control unit 228 Automatic movement control unit 500 Storage unit 501: system program 503: game program 510: virtual reality space initial setting data 516: avatar character initial setting data 520: virtual object initial setting data 528 ... association start condition 530 ... event corresponding setting data 533 ... Vent operation 534: Event operation trigger condition 540: Event definition data 544: Moving object ID list 560: Moving target position definition data 570: Ideal state definition data 571: Ideal state setting area definition data 572: Ideal state setting material data 573: Ideal control parameter value derivation function list 574: Designated ideal control parameter value list 575: Correction ratio definition data 580: Automatic movement definition data 582: Proximity condition 583: Automatic movement data 700: Play data 705: HMD tracking data 707: Controller Tracking data 710: virtual reality space control data 720: avatar character control parameter value list 730: virtual object control parameter value list 731: position coordinates 732: posture 733: motion control Control parameter value 734 Display format setting data 740 Moving target position coordinate 742 Distance 744 Ideal control parameter value list 746 Correction ratio 748 Target control parameter value list 1000 Game system 1100 Game control device 1150 Control board L ... distance Lc ... correction control activation condition distance Pm ... moving target position f1 ... correction derivation function

Claims (16)

コンピュータシステムに、仮想現実空間と実空間とを対応づけて、ユーザが装着するHMD(ヘッドマウントディスプレイ)に前記仮想現実空間の画像を表示させるためのプログラムであって、
前記ユーザの身体部位又は前記ユーザが具備するコントローラを基準体として前記実空間内の前記基準体をトラッキングする基準体トラッキング手段、
前記仮想現実空間において所与の仮想オブジェクトの位置及び姿勢を、前記基準体の位置及び姿勢に対応付けて追従させるように制御する追従制御手段、
前記仮想オブジェクトが前記仮想現実空間内の所与の位置又は所与のエリア(以下、包括して「到達位置」という)へ到達した際の到達姿勢を少なくとも含む到達状態を設定する到達状態設定手段、
前記仮想オブジェクトの前記到達位置への接近に応じて、前記仮想オブジェクトの姿勢を、前記追従制御手段により追従されている姿勢(以下「追従姿勢」という)から前記到達姿勢に変更する制御を行う変更制御手段、
として前記コンピュータシステムを機能させるためのプログラム。
A program for associating a virtual reality space and a real space with a computer system and displaying an image of the virtual reality space on an HMD (head mounted display) worn by a user,
Reference body tracking means for tracking the reference body in the real space using the body part of the user or a controller provided by the user as a reference body,
Tracking control means for controlling the position and orientation of a given virtual object in the virtual reality space so as to follow the position and orientation of the reference body,
A reaching state setting unit that sets a reaching state including at least a reaching posture when the virtual object reaches a given position or a given area in the virtual reality space (hereinafter, collectively referred to as an “arriving position”). ,
A change that performs control for changing the posture of the virtual object from the posture being followed by the following control means (hereinafter, referred to as “following posture”) to the reaching posture in accordance with the approach of the virtual object to the arrival position. Control means,
For causing the computer system to function as a computer.
前記到達状態設定手段は、前記到達位置に向かう前記仮想オブジェクトの方位別に前記到達状態を対応付けて設定し、
前記変更制御手段は、前記仮想オブジェクトが前記到達位置へ接近する方位と、前記方位別の前記到達状態とに基づいて、変更する制御を行う、
請求項1に記載のプログラム。
The arrival state setting means sets the arrival state in association with each direction of the virtual object heading toward the arrival position,
The change control unit performs control to change based on the direction in which the virtual object approaches the arrival position and the arrival state for each direction.
The program according to claim 1.
前記変更制御手段は、前記仮想オブジェクトから前記到達位置までの距離が所与の変更制御発動条件を満たした場合に前記変更の制御を発動する、
請求項1又は2に記載のプログラム。
The change control means activates the control of the change when a distance from the virtual object to the arrival position satisfies a given change control activation condition,
The program according to claim 1.
前記変更制御発動条件を満たした後、前記仮想オブジェクトから前記到達位置までの距離が所与の近接条件を満たした場合に、自動的に前記仮想オブジェクトの位置を前記到達位置に移動させる自動移動制御手段、
として前記コンピュータシステムを更に機能させるための請求項3に記載のプログラム。
Automatic movement control for automatically moving the position of the virtual object to the arrival position when the distance from the virtual object to the arrival position satisfies a given proximity condition after satisfying the change control activation condition. means,
4. The program according to claim 3, further causing the computer system to function as a computer.
前記変更制御手段は、前記仮想オブジェクトから前記到達位置までの距離が短くなるに従って、前記仮想オブジェクトの姿勢を前記到達姿勢に近づけるように変更する、
請求項1〜4の何れか一項に記載のプログラム。
The change control unit changes the posture of the virtual object so as to approach the arrival posture as the distance from the virtual object to the arrival position decreases.
The program according to claim 1.
前記到達状態には、前記仮想オブジェクトが前記到達位置に到達した際の到達時動作、及び/又は、到達時表示形態が含まれ、
前記変更制御手段は、前記仮想オブジェクトから前記到達位置までの距離が短くなるに従って、前記仮想オブジェクトの状態を前記到達状態に近づけるように変更する、
請求項5に記載のプログラム。
The reaching state includes a reaching operation when the virtual object reaches the reaching position and / or a reaching display form.
The change control unit changes the state of the virtual object closer to the arrival state as the distance from the virtual object to the arrival position decreases.
The program according to claim 5.
前記仮想現実空間内の所与のキャラクタの所与の部位に、前記到達位置を設定する到達位置設定手段、
として前記コンピュータシステムを更に機能させるための請求項1〜6の何れか一項に記載のプログラム。
Arrival position setting means for setting the arrival position at a given part of a given character in the virtual reality space,
The program according to any one of claims 1 to 6, further causing the computer system to function as a computer.
前記到達状態設定手段は、前記キャラクタの前記部位の向きに応じて、前記到達姿勢を設定する、
請求項7に記載のプログラム。
The reaching state setting means sets the reaching posture according to an orientation of the part of the character;
The program according to claim 7.
コンピュータシステムに、仮想現実空間と実空間とを対応づけて、ユーザが装着するHMD(ヘッドマウントディスプレイ)に前記仮想現実空間の画像を表示させるためのプログラムであって、
前記ユーザの身体部位又は前記ユーザが具備するコントローラを基準体として前記実空間内の前記基準体をトラッキングする基準体トラッキング手段、
前記仮想現実空間において所与の仮想オブジェクトの位置及び姿勢を、前記基準体の位置及び姿勢に対応付けて追従させるように制御する追従制御手段、
前記仮想オブジェクトが前記仮想現実空間内の所与のキャラクタの所与の部位の位置(以下「到達位置」という)へ到達した際の前記仮想オブジェクトの表示形態を少なくとも含む到達状態を設定する到達状態設定手段、
前記仮想オブジェクトの前記到達位置への接近に応じて、前記仮想オブジェクトの状態を前記到達状態に変更する制御を行う変更制御手段、
として前記コンピュータシステムを機能させるためのプログラム。
A program for associating a virtual reality space and a real space with a computer system and displaying an image of the virtual reality space on an HMD (head mounted display) worn by a user,
Reference body tracking means for tracking the reference body in the real space using the body part of the user or a controller provided by the user as a reference body,
Tracking control means for controlling the position and orientation of a given virtual object in the virtual reality space so as to follow the position and orientation of the reference body,
A reaching state that sets a reaching state including at least a display form of the virtual object when the virtual object reaches a position of a given part of a given character in the virtual reality space (hereinafter, referred to as an “arriving position”). Setting means,
Change control means for performing control to change the state of the virtual object to the arrival state according to the approach of the virtual object to the arrival position,
For causing the computer system to function as a computer.
前記仮想オブジェクトの前記到達位置への接近に応じて、前記キャラクタの位置及び/又は姿勢を制御するキャラクタ制御手段、
として前記コンピュータシステムを更に機能させるための請求項7〜9の何れか一項に記載のプログラム。
Character control means for controlling the position and / or attitude of the character in accordance with the approach of the virtual object to the arrival position;
The program according to any one of claims 7 to 9, further causing the computer system to function as a computer.
前記キャラクタは、前記ユーザのアバターキャラクタである、
請求項7〜10の何れか一項に記載のプログラム。
The character is an avatar character of the user,
The program according to any one of claims 7 to 10.
前記実空間内の前記HMDをトラッキングするHMDトラッキング手段、
前記HMDトラッキング手段によりトラッキングされた前記HMDの位置に基づいて、前記仮想現実空間における前記アバターキャラクタの前記所与の部位の位置を判定する手段、
として前記コンピュータシステムを更に機能させるための請求項11に記載のプログラム。
HMD tracking means for tracking the HMD in the real space,
Means for determining the position of the given part of the avatar character in the virtual reality space based on the position of the HMD tracked by the HMD tracking means;
The program according to claim 11, further causing the computer system to further function.
前記変更制御手段は、前記仮想オブジェクトの姿勢を、前記追従姿勢から前記到達姿勢に直ちに変更する、
請求項1又は2に記載のプログラム。
The change control unit immediately changes the posture of the virtual object from the following posture to the reaching posture.
The program according to claim 1.
前記到達状態には、前記仮想オブジェクトが前記到達位置に到達した際の到達時動作、及び/又は、到達時表示形態が含まれ、
前記変更制御手段は、前記仮想オブジェクトの姿勢の変更に合わせて、前記仮想オブジェクトの状態を前記到達状態に変更する、
請求項13に記載のプログラム。
The reaching state includes a reaching operation when the virtual object reaches the reaching position and / or a reaching display form.
The change control unit changes the state of the virtual object to the arrival state according to a change in the posture of the virtual object.
The program according to claim 13.
仮想現実空間と実空間とを対応づけて、ユーザが装着するHMD(ヘッドマウントディスプレイ)に前記仮想現実空間の画像を表示する制御を行うコンピュータシステムであって、
前記ユーザの身体部位又は前記ユーザが具備するコントローラを基準体として前記実空間内の前記基準体をトラッキングする基準体トラッキング手段と、
前記仮想現実空間において所与の仮想オブジェクトの位置及び姿勢を、前記基準体の位置及び姿勢に対応付けて追従させるように制御する追従制御手段と、
前記仮想オブジェクトが前記仮想現実空間内の所与の位置又は所与のエリア(以下、包括して「到達位置」という)へ到達した際の到達姿勢を少なくとも含む到達状態を設定する到達状態設定手段と、
前記仮想オブジェクトの前記到達位置への接近に応じて、前記仮想オブジェクトの姿勢を、前記追従制御手段により追従されている姿勢(以下「追従姿勢」という)から前記到達姿勢に変更する制御を行う変更制御手段と、
を備えたコンピュータシステム。
A computer system for controlling a virtual reality space and a real space to display an image of the virtual reality space on an HMD (head mounted display) worn by a user,
Reference body tracking means for tracking the reference body in the real space using the body part of the user or a controller provided by the user as a reference body,
Follow-up control means for controlling the position and orientation of a given virtual object in the virtual reality space so as to follow the position and orientation of the reference body,
A reaching state setting unit that sets a reaching state including at least a reaching posture when the virtual object reaches a given position or a given area in the virtual reality space (hereinafter, collectively referred to as an “arriving position”). When,
A change that performs control to change the posture of the virtual object from a posture followed by the following control means (hereinafter, referred to as a “following posture”) to the reaching posture in accordance with the approach of the virtual object to the arrival position. Control means;
Computer system with
仮想現実空間と実空間とを対応づけて、ユーザが装着するHMD(ヘッドマウントディスプレイ)に前記仮想現実空間の画像を表示する制御を行うコンピュータシステムであって、
前記ユーザの身体部位又は前記ユーザが具備するコントローラを基準体として前記実空間内の前記基準体をトラッキングする基準体トラッキング手段と、
前記仮想現実空間において所与の仮想オブジェクトの位置及び姿勢を、前記基準体の位置及び姿勢に対応付けて追従させるように制御する追従制御手段と、
前記仮想オブジェクトが前記仮想現実空間内の所与のキャラクタの所与の部位の位置(以下「到達位置」という)へ到達した際の前記仮想オブジェクトの表示形態を少なくとも含む到達状態を設定する到達状態設定手段と、
前記仮想オブジェクトの前記到達位置への接近に応じて、前記仮想オブジェクトの状態を前記到達状態に変更する制御を行う変更制御手段と、
を備えたコンピュータシステム。
A computer system for controlling a virtual reality space and a real space to display an image of the virtual reality space on an HMD (head mounted display) worn by a user,
Reference body tracking means for tracking the reference body in the real space using the body part of the user or a controller provided by the user as a reference body,
Follow-up control means for controlling the position and orientation of a given virtual object in the virtual reality space so as to follow the position and orientation of the reference body,
A reaching state that sets a reaching state including at least a display form of the virtual object when the virtual object reaches a position of a given part of a given character in the virtual reality space (hereinafter, referred to as an “arriving position”). Setting means;
Change control means for performing control to change the state of the virtual object to the arrival state in accordance with the approach of the virtual object to the arrival position,
Computer system with
JP2016078395A 2016-04-08 2016-04-08 Program and computer system Active JP6672047B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016078395A JP6672047B2 (en) 2016-04-08 2016-04-08 Program and computer system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016078395A JP6672047B2 (en) 2016-04-08 2016-04-08 Program and computer system

Publications (2)

Publication Number Publication Date
JP2017188041A JP2017188041A (en) 2017-10-12
JP6672047B2 true JP6672047B2 (en) 2020-03-25

Family

ID=60045632

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016078395A Active JP6672047B2 (en) 2016-04-08 2016-04-08 Program and computer system

Country Status (1)

Country Link
JP (1) JP6672047B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7111645B2 (en) * 2019-03-28 2022-08-02 株式会社バーチャルキャスト control program
KR20220111918A (en) 2021-02-03 2022-08-10 삼성전자주식회사 Character animation motion contorl method and device
CN114419099A (en) * 2022-01-18 2022-04-29 腾讯科技(深圳)有限公司 Method for capturing motion trail of virtual object to be rendered

Also Published As

Publication number Publication date
JP2017188041A (en) 2017-10-12

Similar Documents

Publication Publication Date Title
US10713001B2 (en) Control method and virtual reality experience provision apparatus
US10636212B2 (en) Method for generating image to be displayed on head tracking type virtual reality head mounted display and image generation device
JP5800501B2 (en) Display control program, display control apparatus, display control system, and display control method
US20150070274A1 (en) Methods and systems for determining 6dof location and orientation of head-mounted display and associated user movements
CN109313511A (en) The method of Virtual Space is provided, method, program and the recording medium of virtual experience are provided
JP6342038B1 (en) Program for providing virtual space, information processing apparatus for executing the program, and method for providing virtual space
US9443340B2 (en) Computer readable storage medium having stored thereon image processing program, image processing apparatus, image processing method, and image processing system
CN106873767B (en) Operation control method and device for virtual reality application
KR20220012990A (en) Gating Arm Gaze-Driven User Interface Elements for Artificial Reality Systems
CN109308115B (en) Method and related device for displaying user movement in virtual reality system
US11049325B2 (en) Information processing apparatus, information processing method, and program
CN107930119A (en) Information processing method, device, electronic equipment and storage medium
JP6672047B2 (en) Program and computer system
JP2019175323A (en) Simulation system and program
JP6257825B1 (en) Method for communicating via virtual space, program for causing computer to execute the method, and information processing apparatus for executing the program
JP2022125053A (en) Boundary setting device, boundary setting method and program
JP6794390B2 (en) Simulation system and program
JP2018171320A (en) Simulation system and program
JP6918189B2 (en) Simulation system and program
JP2015008987A (en) Program and game device
JP2019020832A (en) Information processing method, device, and program for causing computer to execute the method
JP5816435B2 (en) Display control program, display control apparatus, display control system, and display control method
JP6728111B2 (en) Method of providing virtual space, method of providing virtual experience, program, and recording medium
KR20200116380A (en) Mobile interlocking VR device compatible to VR sports device
JP2016062428A (en) Force sense presentation device, information terminal, force sense presentation method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190405

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191212

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200304

R150 Certificate of patent or registration of utility model

Ref document number: 6672047

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250