JP6675615B2 - Information processing apparatus, information processing apparatus program, head mounted display, and display system - Google Patents

Information processing apparatus, information processing apparatus program, head mounted display, and display system Download PDF

Info

Publication number
JP6675615B2
JP6675615B2 JP2018011423A JP2018011423A JP6675615B2 JP 6675615 B2 JP6675615 B2 JP 6675615B2 JP 2018011423 A JP2018011423 A JP 2018011423A JP 2018011423 A JP2018011423 A JP 2018011423A JP 6675615 B2 JP6675615 B2 JP 6675615B2
Authority
JP
Japan
Prior art keywords
virtual
virtual space
virtual camera
change
posture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018011423A
Other languages
Japanese (ja)
Other versions
JP2019128875A (en
Inventor
小川 和宏
和宏 小川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konami Digital Entertainment Co Ltd
Original Assignee
Konami Digital Entertainment Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konami Digital Entertainment Co Ltd filed Critical Konami Digital Entertainment Co Ltd
Priority to JP2018011423A priority Critical patent/JP6675615B2/en
Publication of JP2019128875A publication Critical patent/JP2019128875A/en
Application granted granted Critical
Publication of JP6675615B2 publication Critical patent/JP6675615B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、情報処理装置、情報処理装置のプログラム、ヘッドマウントディスプレイ、及び、表示システムに関する。   The present invention relates to an information processing device, a program for the information processing device, a head-mounted display, and a display system.

近年、ヘッドマウントディスプレイ(HMD:Head Mounted Display)が広く普及しつつある。HMDは、ユーザの頭部に装着され、ユーザの眼前に設けられた表示部に対して、例えば、仮想カメラで仮想空間を撮像した画像であって、両眼視差を利用した立体視画像等を表示する(例えば、特許文献1参照)。このようなHMDにおいては、一般的に、HMDの姿勢の変化に基づいて、仮想空間における仮想カメラの姿勢を変化することで、ユーザが仮想空間の様々な方向を視認することを可能としている。   In recent years, head mounted displays (HMDs) have become widespread. The HMD is, for example, an image obtained by capturing a virtual space with a virtual camera and displaying a stereoscopic image using binocular parallax on a display unit mounted on the user's head and provided in front of the user's eyes. It is displayed (for example, see Patent Document 1). In such an HMD, in general, the user can visually recognize various directions in the virtual space by changing the posture of the virtual camera in the virtual space based on the change in the posture of the HMD.

特開2016−115122号公報JP-A-2006-115122

ところで、HMDの表示部において、仮想空間内で位置及び形状の一方または双方を変化させるオブジェクトを継続的に表示させたい場合がある。この場合、HMDを装着したユーザは、表示部にオブジェクトを継続的に表示させるために、オブジェクトの位置または形状の変化に応じて、仮想空間内の仮想カメラの位置及び姿勢を変化させることが必要となることがある。
しかし、ユーザからの指示をHMDの姿勢の変化により受け付ける場合、ユーザは、仮想空間における仮想カメラの姿勢の変化以外の操作を行うことが難しく、例えば、仮想空間における仮想カメラの位置の変化等の操作が困難となることがあった。そして、HMDを装着したユーザが、仮想空間内の仮想カメラの位置及び姿勢の両方を変化させることが難しい場合、表示部において、位置及び形状の一方または双方を変化させるオブジェクトを継続的に表示させることが、困難となる場合があった。
By the way, there is a case where it is desired to continuously display an object whose position and / or shape is changed in the virtual space on the display unit of the HMD. In this case, the user wearing the HMD needs to change the position and orientation of the virtual camera in the virtual space according to a change in the position or shape of the object in order to continuously display the object on the display unit. It may be.
However, when an instruction from the user is received based on a change in the attitude of the HMD, it is difficult for the user to perform an operation other than a change in the attitude of the virtual camera in the virtual space. Operation was sometimes difficult. If it is difficult for the user wearing the HMD to change both the position and the posture of the virtual camera in the virtual space, the display unit continuously displays an object that changes one or both of the position and the shape on the display unit. This can be difficult.

本発明は、上述した事情を鑑みてなされたものであり、HMDの表示部において、仮想空間内で位置及び形状の一方または双方を変化させるオブジェクトを継続的に表示させることを、可能とする技術の提供を、解決課題の一つとする。   The present invention has been made in view of the circumstances described above, and has been made in view of the above circumstances, and is a technology that enables an HMD display unit to continuously display an object that changes one or both of a position and a shape in a virtual space. Is one of the solutions.

以上の課題を解決するために、本発明の一態様に係る情報処理装置のプログラムは、プロセッサを具備する情報処理装置のプログラムであって、前記プロセッサを、仮想空間を仮想カメラで撮像した画像であって、両眼視差を利用した立体視画像を、ヘッドマウントディスプレイに設けられた表示部に表示させる表示制御部と、前記ヘッドマウントディスプレイの姿勢に関する姿勢情報を取得する取得部と、して機能させ、前記表示制御部は、前記仮想空間における仮想点の位置に関する位置情報に基づいて、前記仮想空間における前記仮想カメラの位置を変化させることが可能であり、前記姿勢情報に基づいて、前記仮想空間における前記仮想カメラの姿勢を変化させることが可能であり、前記仮想点は、前記仮想空間に存在するオブジェクトに基づく位置に設定され、前記仮想空間における前記オブジェクトの位置及び形状のうち少なくとも一方の変化に基づいて、前記仮想点の位置が変化する、ことを特徴とする。   In order to solve the above problem, a program for an information processing device according to one embodiment of the present invention is a program for an information processing device including a processor, wherein the processor is an image obtained by capturing a virtual space with a virtual camera. There is a display control unit that displays a stereoscopic image using binocular parallax on a display unit provided in a head-mounted display, and an acquisition unit that acquires posture information on the posture of the head-mounted display. The display control unit can change a position of the virtual camera in the virtual space based on position information on a position of a virtual point in the virtual space, and based on the posture information, It is possible to change the attitude of the virtual camera in a space, and the virtual point is an object existing in the virtual space. Is set at a position based on the bets, based on the position and at least one of the change of shape of the object in the virtual space, the position of the virtual point is changed, characterized in that.

本発明の実施形態に係るヘッドマウントディスプレイ1の概要の一例を示す説明図である。FIG. 1 is an explanatory diagram illustrating an example of an outline of a head mounted display 1 according to an embodiment of the present invention. ヘッドマウントディスプレイ1の使用例を示す説明図である。FIG. 4 is an explanatory diagram showing a usage example of the head mounted display 1. 仮想空間SP-Vの一例を示す説明図である。FIG. 4 is an explanatory diagram illustrating an example of a virtual space SP-V. 仮想空間SP-Vにおける仮想カメラCMの一例を示す説明図である。FIG. 4 is an explanatory diagram illustrating an example of a virtual camera CM in a virtual space SP-V. 表示画像GHの一例を示す説明図である。FIG. 4 is an explanatory diagram illustrating an example of a display image GH. 視認画像GSの一例を示す説明図である。FIG. 9 is an explanatory diagram illustrating an example of a visual recognition image GS. 仮想空間SP-Vにおける仮想カメラCMの一例を示す説明図である。FIG. 4 is an explanatory diagram illustrating an example of a virtual camera CM in a virtual space SP-V. 端末装置10の構成の一例を示すブロック図である。FIG. 2 is a block diagram illustrating an example of a configuration of a terminal device 10. 端末装置10のハードウェア構成の一例を示すブロック図である。FIG. 2 is a block diagram illustrating an example of a hardware configuration of a terminal device 10. 端末装置10の動作の一例を示すフローチャートである。5 is a flowchart illustrating an example of an operation of the terminal device 10. 端末装置10の動作の一例を示すフローチャートである。5 is a flowchart illustrating an example of an operation of the terminal device 10. 位置追従制御モードにおける仮想カメラCMの動作の一例を示す説明図である。FIG. 9 is an explanatory diagram illustrating an example of an operation of the virtual camera CM in the position following control mode. 位置追従制御モードにおける仮想カメラCMの動作の一例を示す説明図である。FIG. 9 is an explanatory diagram illustrating an example of an operation of the virtual camera CM in the position following control mode. 位置追従制御モードにおける仮想カメラCMの動作の一例を示す説明図である。FIG. 9 is an explanatory diagram illustrating an example of an operation of the virtual camera CM in the position following control mode. 位置追従制御モードにおける仮想カメラCMの動作の一例を示す説明図である。FIG. 9 is an explanatory diagram illustrating an example of an operation of the virtual camera CM in the position following control mode. 姿勢追従制御モードにおける仮想カメラCMの動作の一例を示す説明図である。FIG. 7 is an explanatory diagram illustrating an example of an operation of the virtual camera CM in a posture following control mode. 姿勢追従制御モードにおける仮想カメラCMの動作の一例を示す説明図である。FIG. 7 is an explanatory diagram illustrating an example of an operation of the virtual camera CM in a posture following control mode. 姿勢追従制御モードにおける仮想カメラCMの動作の一例を示す説明図である。FIG. 7 is an explanatory diagram illustrating an example of an operation of the virtual camera CM in a posture following control mode. 姿勢追従制御モードにおける仮想カメラCMの動作の一例を示す説明図である。FIG. 7 is an explanatory diagram illustrating an example of an operation of the virtual camera CM in a posture following control mode. 変形例1に係る仮想カメラCMの動作の一例を示す説明図である。FIG. 11 is an explanatory diagram illustrating an example of an operation of the virtual camera CM according to Modification Example 1. 変形例4に係る端末装置10の動作の一例を示すフローチャートである。15 is a flowchart illustrating an example of an operation of the terminal device 10 according to Modification 4. 変形例4に係る端末装置10の動作の一例を示すフローチャートである。15 is a flowchart illustrating an example of an operation of the terminal device 10 according to Modification 4. 変形例9に係る表示システムSYSの構成の一例を示すブロック図である。FIG. 21 is a block diagram illustrating an example of a configuration of a display system SYS according to Modification Example 9.

以下、本発明を実施するための形態について図面を参照して説明する。なお、各図において、各部の寸法及び縮尺は、実際のものと適宜に異ならせてある。また、以下に述べる実施の形態は、本発明の好適な具体例であるから、技術的に好ましい種々の限定が付されているが、本発明の範囲は、以下の説明において特に本発明を限定する旨の記載がない限り、これらの形態に限られるものではない。   Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings. In each drawing, the size and scale of each part are appropriately different from actual ones. Further, the embodiments described below are preferred specific examples of the present invention, and therefore, various technically preferable limitations are given. However, the scope of the present invention is not limited to the following description. It is not limited to these forms unless otherwise stated.

[A.実施形態]
以下、本発明の実施形態を説明する。
[A. Embodiment]
Hereinafter, embodiments of the present invention will be described.

[1.ヘッドマウントディスプレイの概要]
以下、図1乃至図7を参照しながら、本実施形態に係るヘッドマウントディスプレイ1(以下、「HMD1」と称する)の概要の一例について説明する。
[1. Overview of head mounted display]
Hereinafter, an example of the outline of the head mounted display 1 (hereinafter, referred to as “HMD1”) according to the present embodiment will be described with reference to FIGS. 1 to 7.

図1は、本実施形態に係るHMD1の概要の一例を説明するための分解斜視図である。図2は、本実施形態に係るHMD1の利用イメージの一例を説明するための説明図である。   FIG. 1 is an exploded perspective view for explaining an example of the outline of the HMD 1 according to the present embodiment. FIG. 2 is an explanatory diagram illustrating an example of a usage image of the HMD 1 according to the embodiment.

図1に示すように、本実施形態に係るHMD1は、端末装置10と、装着具90と、を有する。
端末装置10は、画像を表示するための表示部12を備える。本実施形態では、端末装置10としてスマートフォンを採用する場合を、一例として想定する。但し、端末装置10は、HMD1に設けられるための専用の表示デバイスであってもよい。
As shown in FIG. 1, the HMD 1 according to the present embodiment includes a terminal device 10 and a mounting device 90.
The terminal device 10 includes a display unit 12 for displaying an image. In the present embodiment, a case where a smartphone is adopted as the terminal device 10 is assumed as an example. However, the terminal device 10 may be a dedicated display device provided in the HMD 1.

装着具90は、図2に示すように、HMD1をユーザUの頭部に装着するための構成要素である。
図1に示すように、装着具90は、HMD1をユーザUの頭部に装着するための一対のテンプル91L及び91Rと、端末装置10をHMD1に取り付けるための取付孔92と、ユーザUがHMD1を頭部に装着した場合に、ユーザUの両眼が存在する位置に対応するように設けられた一対の貫通孔92L及び92Rと、を備える。なお、貫通孔92L及び92Rの各々には、レンズが設けられていてもよい。そして、ユーザUが、HMD1を頭部に装着した場合、ユーザUの左眼は、貫通孔92Lを介して、または、取付孔92に設けられたレンズを介して、取付孔92に挿入された端末装置10が具備する表示部12を視認することができ、ユーザUの右眼は、貫通孔92Rを介して、または、貫通孔92Rに設けられたレンズを介して、取付孔92に挿入された端末装置10が具備する表示部12を視認することができる。
The mounting device 90 is a component for mounting the HMD 1 on the head of the user U, as shown in FIG.
As shown in FIG. 1, the mounting device 90 includes a pair of temples 91L and 91R for mounting the HMD1 on the head of the user U, a mounting hole 92 for mounting the terminal device 10 to the HMD1, and And a pair of through-holes 92L and 92R provided so as to correspond to positions where both eyes of the user U are present when is mounted on the head. Note that a lens may be provided in each of the through holes 92L and 92R. When the user U wears the HMD 1 on the head, the left eye of the user U is inserted into the mounting hole 92 through the through hole 92L or through a lens provided in the mounting hole 92. The display unit 12 of the terminal device 10 can be visually recognized, and the right eye of the user U is inserted into the mounting hole 92 through the through hole 92R or through a lens provided in the through hole 92R. The display unit 12 of the terminal device 10 can be visually recognized.

図2に示すように、HMD1を頭部に装着したユーザUは、頭部の姿勢を変化させることにより、HMD1の姿勢を変化させることができる。以下では、説明の便宜上、HMD1に固定された座標系である装置座標系Σを導入する。
装置座標系Σとは、例えば、HMD1の所定箇所に原点を有し、互いに直交するX軸、Y軸、及び、Z軸を有する3軸の直交座標系である。本実施形態では、図2に示すように、ユーザUがHMD1を装着した場合に、+X方向がユーザUから見た前方方向となり、+Y方向がユーザUから見た左手方向となり、+Z方向がユーザUから見た上方向となるように、装置座標系Σが設定されている場合を、一例として想定する。
As shown in FIG. 2, the user U wearing the HMD 1 on the head can change the posture of the HMD 1 by changing the posture of the head. For convenience of explanation, introducing device coordinate system sigma S is a coordinate system fixed to the HMD 1.
The device coordinate system sigma S, for example, has an origin at a predetermined position of the HMD 1, X S axis orthogonal to each other, Y S axis, and an orthogonal coordinate system of the three axes having a Z S axis. In the present embodiment, as shown in FIG. 2, when the user U wearing the HMD 1, + X S direction is the forward direction seen from the user U, + Y S direction is the left direction as viewed from the user U, + Z S direction such that the upward direction as viewed from the user U, the case where the apparatus coordinate system sigma S is set, it is assumed as an example.

図2に示すように、HMD1を頭部に装着したユーザUは、頭部の姿勢を変化させることで、X軸周りの回転方向、すなわち、ロール方向QにHMD1が回転するように、HMD1の姿勢を変化させることが可能であり、Y軸周りの回転方向、すなわち、ピッチ方向QにHMD1が回転するように、HMD1の姿勢を変化させることが可能であり、また、Z軸周りの回転方向、すなわち、ヨー方向QにHMD1が回転するように、HMD1の姿勢を変化させることが可能である。すなわち、HMD1を頭部に装着したユーザUは、頭部の姿勢を変化させることで、ロール方向Q、ピッチ方向Q、及び、ヨー方向Qの一部または全部を合成した任意の回転方向、すなわち、任意の回転軸W周りの回転方向QにHMD1が回転するように、HMD1の姿勢を変化させることが可能である。 As shown in FIG. 2, the user U wearing the HMD1 the head, by changing the posture of the head, the direction of rotation about X S axis, i.e., as HMD1 in the roll direction Q X rotates, it is possible to change the attitude of HMD1, the direction of rotation about Y S axis, i.e., as HMD1 the pitch direction Q Y is rotated, it is possible to change the attitude of HMD1, also, Z S direction of rotation about the axis, i.e., as HMD1 in the yaw direction Q Z is rotated, it is possible to change the attitude of HMD1. That is, the user U wearing the HMD1 the head, by changing the posture of the head, roll direction Q X, the pitch direction Q Y, and any rotation to synthesize some or all of the yaw direction Q Z direction, i.e., so HMD1 is rotated in the rotating direction Q W around any rotational axis W S, it is possible to change the attitude of HMD1.

端末装置10は、3次元の仮想的な空間である仮想空間SP-Vにおいて、仮想的なカメラである仮想カメラCMにより仮想空間SP-Vを撮像し、撮像結果を示す画像である表示画像GHを、表示部12に表示させる。   The terminal device 10 captures an image of the virtual space SP-V with a virtual camera CM that is a virtual camera in a virtual space SP-V that is a three-dimensional virtual space, and displays a display image GH that is an image showing the captured result. Is displayed on the display unit 12.

図3は、仮想空間SP-V及び仮想カメラCMを説明するための説明図である。   FIG. 3 is an explanatory diagram for explaining the virtual space SP-V and the virtual camera CM.

本実施形態では、図3に示すように、仮想空間SP-Vにおいて、仮想空間SP-Vの環境を構成する地面、床面、及び、壁面等の環境構成物EVと、仮想的なキャラクタV(「オブジェクト」の一例)と、が存在する場合を、一例として想定する。ここで、キャラクタVとは、例えば、仮想空間SP-Vに存在する仮想的な人物、動物、ロボット、または、モンスター等である。
また、本実施形態では、キャラクタVが、仮想空間SP-Vにおいて複数種類のモーションを実行可能である場合を想定する。ここで、「モーション」とは、例えば、座る、立つ、走る、戦う、及び、ダンスをする等、キャラクタVが仮想空間SP-Vにおいて、位置及び体勢の少なくとも一方を変化させることである。なお、キャラクタVが体勢を変化させる場合、キャラクタVの形状も変化する。すなわち、「キャラクタVの体勢」とは、「オブジェクトの形状」の一例である。
In the present embodiment, as shown in FIG. 3, in the virtual space SP-V, environmental components EV such as the ground, floor, and wall constituting the environment of the virtual space SP-V, and a virtual character V (An example of “object”) is assumed as an example. Here, the character V is, for example, a virtual person, animal, robot, monster, or the like existing in the virtual space SP-V.
In the present embodiment, it is assumed that the character V can execute a plurality of types of motions in the virtual space SP-V. Here, “motion” means that the character V changes at least one of the position and the posture in the virtual space SP-V, such as sitting, standing, running, fighting, and dancing. When the character V changes his posture, the shape of the character V also changes. That is, the “position of the character V” is an example of the “shape of the object”.

また、本実施形態では、図3に示すように、仮想カメラCMが、左眼用の仮想カメラCM-Lと、右眼用の仮想カメラCM-Rとを含む場合を、一例として想定する。
また、以下では、図3に示すように、仮想空間SP-Vに固定された座標系である仮想空間座標系Σを導入する。仮想空間座標系Σとは、例えば、仮想空間SP-Vの所定箇所に原点を有し、互いに直交するX軸、Y軸、及び、Z軸を有する3軸の直交座標系である。
Further, in the present embodiment, as shown in FIG. 3, as an example, a case where the virtual camera CM includes a left-eye virtual camera CM-L and a right-eye virtual camera CM-R is assumed.
In the following, as shown in FIG. 3, a virtual space coordinate system VV , which is a coordinate system fixed to the virtual space SP-V, is introduced. A virtual space coordinate system sigma V, for example, has an origin at a predetermined position in the virtual space SP-V, X V axes perpendicular to one another, Y V axis, and, in the orthogonal coordinate system of the three axes having a Z V axis is there.

図4は、仮想空間SP-Vを、+Z方向から平面視した場合の、仮想カメラCM及びキャラクタVの位置関係を説明するための説明図である。なお、図4では、仮想カメラCMが、キャラクタVを、キャラクタVの正面方向から撮像している場合を例示している。 4, the virtual space SP-V, when viewed in plan from the + Z V direction is an explanatory view for explaining the positional relationship between the virtual camera CM and the character V. FIG. 4 illustrates a case where the virtual camera CM captures an image of the character V from the front of the character V.

以下では、図4に示すように、仮想空間SP-Vにおける仮想カメラCM-Lの位置を、位置PC-Lと称し、仮想空間SP-Vにおける仮想カメラCM-Rの位置を、位置PC-Rと称し、位置PC-L及び位置PC-Rの中点を、位置PCと称する。
また、以下では、図4に示すように、仮想カメラCM-Lの光軸方向を、撮像方向LC-Lと称し、仮想カメラCM-Rの光軸方向を、撮像方向LC-Rと称し、撮像方向LC-Lを示すベクトルと、撮像方向LC-Rを示すベクトルとの和により示される方向を、撮像方向LCと称する。なお、本実施形態では、撮像方向LC-Lと撮像方向LC-Rとが、同一の方向である場合を想定する。このため、本実施形態では、撮像方向LCは、撮像方向LC-L及び撮像方向LC-Rと同一の方向となる。
Hereinafter, as shown in FIG. 4, the position of the virtual camera CM-L in the virtual space SP-V is referred to as a position PC-L, and the position of the virtual camera CM-R in the virtual space SP-V is referred to as a position PC-L. R, and the midpoint between the position PC-L and the position PC-R is referred to as a position PC.
In the following, as shown in FIG. 4, the optical axis direction of the virtual camera CM-L is referred to as an imaging direction LC-L, and the optical axis direction of the virtual camera CM-R is referred to as an imaging direction LC-R. The direction indicated by the sum of the vector indicating the imaging direction LC-L and the vector indicating the imaging direction LC-R is referred to as the imaging direction LC. In the present embodiment, it is assumed that the imaging direction LC-L and the imaging direction LC-R are the same direction. Therefore, in the present embodiment, the imaging direction LC is the same as the imaging direction LC-L and the imaging direction LC-R.

図5は、仮想カメラCMが仮想空間SP-Vを撮像した結果である表示画像GHの一例を示す図である。なお、図5では、図4に示すように、仮想カメラCMが、キャラクタVを、キャラクタVの正面方向から撮像した場合を想定する。   FIG. 5 is a diagram illustrating an example of a display image GH that is a result of the virtual camera CM capturing the virtual space SP-V. In FIG. 5, it is assumed that the virtual camera CM captures an image of the character V from the front direction of the character V as shown in FIG.

図5に示すように、表示部12のうち、貫通孔92Lを介して視認可能な左眼用視認領域12-Lには、仮想カメラCM-Lによる撮像結果、例えば、仮想カメラCM-LによりキャラクタVを撮像した結果であるキャラクタ画像GV-Lと、仮想カメラCM-Lにより環境構成物EVを撮像した結果である環境画像GEV-Lとが、表示される。また、表示部12のうち、貫通孔92Rを介して視認可能な右眼用視認領域12-Rには、仮想カメラCM-Rによる撮像結果、例えば、仮想カメラCM-RによりキャラクタVを撮像した結果であるキャラクタ画像GV-Rと、仮想カメラCM-Rにより環境構成物EVを撮像した結果である環境画像GEV-Rとが、表示される。
すなわち、ユーザUは、左眼によりキャラクタ画像GV-L及び環境画像GEV-Lを視認し、右眼によりキャラクタ画像GV-R及び環境画像GEV-Rを視認することができる。このため、ユーザUは、図6に例示するように、表示部12において、キャラクタV及び環境構成物EV等の仮想空間SP-V内に存在する仮想的な物体を、キャラクタ画像GV及び環境画像GEV等の立体的な3次元の物体として表した、視認画像GSを視認することが可能となる。
As shown in FIG. 5, in the left-eye viewing area 12-L that can be visually recognized through the through-hole 92L in the display unit 12, the imaging result by the virtual camera CM-L, for example, the virtual camera CM-L A character image GV-L as a result of capturing the character V and an environment image GEV-L as a result of capturing the environmental component EV with the virtual camera CM-L are displayed. Further, in the right-eye viewing area 12-R, which can be viewed through the through-hole 92R, of the display unit 12, an image obtained by the virtual camera CM-R, for example, the character V is imaged by the virtual camera CM-R. A character image GV-R as a result and an environment image GEV-R as a result of capturing the environmental component EV by the virtual camera CM-R are displayed.
That is, the user U can visually recognize the character image GV-L and the environment image GEV-L with the left eye, and can visually recognize the character image GV-R and the environment image GEV-R with the right eye. For this reason, as illustrated in FIG. 6, the user U displays a virtual object such as the character V and the environmental component EV in the virtual space SP-V on the display unit 12 by using the character image GV and the environmental image It is possible to visually recognize the visual recognition image GS represented as a three-dimensional three-dimensional object such as GEV.

なお、以下では、説明の便宜上、図7に例示するように、仮想空間SP-Vにおける、仮想カメラCMとキャラクタVとの相対的な位置関係を説明する場合に、2台の仮想カメラCM-L及びCM-Rを、1台の仮想カメラCMとして表現することとする。そして、以下では、仮想空間SP-Vにおける仮想カメラCMの位置が位置PCであり、仮想カメラCMの光軸方向が撮像方向LCであることと看做す。
また、以下では、説明の便宜上、図7に示すように、仮想空間SP-Vにおける仮想カメラCMに固定された座標系であるカメラ座標系Σを導入する。カメラ座標系Σとは、例えば、仮想空間SP-Vのうち仮想カメラCMの位置PCに原点を有し、互いに直交するX軸、Y軸、及び、Z軸を有する3軸の直交座標系である。本実施形態では、HMD1を装着したユーザUから見て、X軸がX軸と平行であり、Y軸がY軸と平行であり、Z軸がZ軸と平行である場合を、一例として想定する。すなわち、本実施形態では、X軸が、仮想カメラCMの撮像方向LCに延在する場合を、一例として想定する。なお、図7では、カメラ座標系Σの原点と位置PCとを異なる位置として示しているが、これは図示の都合上であって、カメラ座標系Σの原点と位置PCとは同一の位置である(後述する図12乃至図19でも同様)。
In the following, for the sake of convenience, as illustrated in FIG. 7, when describing the relative positional relationship between the virtual camera CM and the character V in the virtual space SP-V, two virtual cameras CM- L and CM-R are represented as one virtual camera CM. In the following, it is assumed that the position of the virtual camera CM in the virtual space SP-V is the position PC, and that the optical axis direction of the virtual camera CM is the imaging direction LC.
In the following, for convenience of explanation, as shown in FIG. 7, to introduce the camera coordinate system sigma C is a coordinate system fixed to the virtual camera CM in the virtual space SP-V. The camera coordinate system sigma C, for example, has an origin at the position PC of the virtual camera CM of the virtual space SP-V, X C axes perpendicular to one another, Y C-axis, and, the three axes having a Z C axis It is a rectangular coordinate system. In the present embodiment, as viewed from the user U wearing the HMD 1, X C-axis is parallel to the X S axis, Y C axis is parallel to the Y S axis, Z C axis is parallel to the Z S axis The case is assumed as an example. That is, in this embodiment, X C-axis, a case extending in the imaging direction LC of the virtual camera CM, it is assumed as an example. In FIG. 7, is shown as position different origin of the camera coordinate system sigma C and position PC, this is a on for convenience of illustration, the same is the origin and the position PC of the camera coordinate system sigma C Position (the same applies to FIGS. 12 to 19 described later).

[2.端末装置の構成]
以下、図8及び図9を参照しながら、端末装置10の構成の一例について説明する。
[2. Configuration of Terminal Device]
Hereinafter, an example of the configuration of the terminal device 10 will be described with reference to FIGS. 8 and 9.

図8は、端末装置10の構成の一例を示す機能ブロック図である。   FIG. 8 is a functional block diagram illustrating an example of the configuration of the terminal device 10.

図8に示すように、端末装置10は、端末装置10の各部を制御する制御部11と、画像を表示するための表示部12と、端末装置10のユーザUによる操作を受け付けるための操作部13と、端末装置10の姿勢変化を検出して検出結果を示す姿勢情報Bを出力する姿勢情報生成部14と、各種情報を記憶する記憶部15と、を備える。   As illustrated in FIG. 8, the terminal device 10 includes a control unit 11 that controls each unit of the terminal device 10, a display unit 12 that displays an image, and an operation unit that receives an operation performed by the user U of the terminal device 10. 13, a posture information generation unit 14 that detects a posture change of the terminal device 10 and outputs posture information B indicating the detection result, and a storage unit 15 that stores various information.

本実施形態では、姿勢情報生成部14として、例えば、3軸の角速度センサ1002(図9参照)を採用する。具体的には、姿勢情報生成部14は、単位時間におけるロール方向Qの姿勢変化を検出するX軸角速度センサと、単位時間におけるピッチ方向Qの姿勢変化を検出するY軸角速度センサと、単位時間におけるヨー方向Qの姿勢変化を検出するZ軸角速度センサと、を備える。そして、姿勢情報生成部14は、X軸角速度センサ、Y軸角速度センサ、及び、Z軸角速度センサによる検出結果を示す姿勢情報Bを、周期的に出力する。 In the present embodiment, for example, a three-axis angular velocity sensor 1002 (see FIG. 9) is employed as the posture information generation unit 14. Specifically, the posture information generation unit 14 includes an X-axis angular velocity sensor for detecting a change in the attitude of the roll direction Q X per unit time, and Y-axis angular velocity sensor for detecting a posture change in the pitch direction Q Y per unit time, comprises a Z-axis angular velocity sensor for detecting a posture change in the yaw direction Q Z in the unit time, the. Then, the posture information generation unit 14 periodically outputs posture information B indicating detection results by the X-axis angular velocity sensor, the Y-axis angular velocity sensor, and the Z-axis angular velocity sensor.

記憶部15は、端末装置10の制御プログラムPRGと、キャラクタVが実行可能な複数種類のモーションに関するモーション情報DMとを含む、各種情報を記憶する。
ここで、モーション情報DMとは、キャラクタVが各モーションを実行する場合に、仮想空間SP-VにおけるキャラクタVの位置及び形状の経時的な変化を表す情報である。具体的には、例えば、キャラクタVが、頭部、胴体部、及び、脚部等の複数の部位から構成される場合、モーション情報DMとは、キャラクタVを構成する複数の部位の各々についての位置の経時的な変化を表す情報であってもよい。または、モーション情報DMとは、キャラクタVを構成する複数の部位間の相対的な位置関係の経時的な変化を表す情報であってもよい。または、モーション情報DMとは、キャラクタVを構成する複数の部位間を接続する関節の角度、すなわち、関節に接続される2つの部位のなす角度の経時的な変化を表す情報であってもよい。
The storage unit 15 stores various information including a control program PRG of the terminal device 10 and motion information DM regarding a plurality of types of motions that can be executed by the character V.
Here, the motion information DM is information representing a temporal change in the position and the shape of the character V in the virtual space SP-V when the character V executes each motion. Specifically, for example, when the character V is composed of a plurality of parts such as a head, a torso, and a leg, the motion information DM is defined as each of the plurality of parts constituting the character V. It may be information indicating a change over time in the position. Alternatively, the motion information DM may be information indicating a temporal change in a relative positional relationship between a plurality of parts constituting the character V. Alternatively, the motion information DM may be information representing a change over time of an angle of a joint connecting a plurality of parts constituting the character V, that is, an angle formed by two parts connected to the joint. .

制御部11は、姿勢情報Bを取得する姿勢情報取得部115(「取得部」の一例)と、姿勢情報Bに基づいて表示画像GHを生成する表示制御部110と、を備える。
表示制御部110は、モード指定部111と、仮想カメラ制御部112と、キャラクタ制御部113と、表示情報生成部114と、を備える。
The control unit 11 includes a posture information acquisition unit 115 (an example of an “acquisition unit”) that acquires posture information B, and a display control unit 110 that generates a display image GH based on the posture information B.
The display control unit 110 includes a mode designation unit 111, a virtual camera control unit 112, a character control unit 113, and a display information generation unit 114.

仮想カメラ制御部112は、姿勢情報Bに基づいて、仮想空間SP-Vにおける仮想カメラCMを制御する。なお、本実施形態において、仮想カメラ制御部112は、複数の制御モードによる仮想カメラCMの制御が可能である。具体的には、仮想カメラ制御部112は、位置追従制御モードによる仮想カメラCMの制御と、姿勢追従制御モードによる仮想カメラCMの制御と、が可能である。
位置追従制御モードとは、仮想空間SP-Vにおける仮想カメラCMの位置PCが、仮想空間SP-Vにおける仮想点Kの位置PKに基づく位置となるように、仮想空間SP-Vにおける仮想カメラCMを制御する制御モードである。また、仮想カメラ制御部112は、位置追従制御モードにおいて、仮想空間SP-Vにおける仮想カメラCMの姿勢を、姿勢情報Bに基づいて変化させる。なお、仮想点Kについては後述する。
姿勢追従制御モードとは、仮想空間SP-Vにおける仮想カメラCMの姿勢を、例えば、仮想カメラCMから見て撮像方向LCに仮想点Kが位置するような姿勢となるように、仮想空間SP-Vにおける仮想カメラCMを制御する制御モードである。また、仮想カメラ制御部112は、姿勢追従制御モードにおいて、仮想空間SP-Vにおける仮想カメラCMの位置PCを、姿勢情報Bに基づいて変化させる。
The virtual camera control unit 112 controls the virtual camera CM in the virtual space SP-V based on the posture information B. In the present embodiment, the virtual camera control unit 112 can control the virtual camera CM in a plurality of control modes. Specifically, the virtual camera control unit 112 is capable of controlling the virtual camera CM in the position following control mode and controlling the virtual camera CM in the posture following control mode.
The position following control mode is a virtual camera CM in the virtual space SP-V such that the position PC of the virtual camera CM in the virtual space SP-V is based on the position PK of the virtual point K in the virtual space SP-V. This is a control mode for controlling. Further, the virtual camera control unit 112 changes the posture of the virtual camera CM in the virtual space SP-V based on the posture information B in the position following control mode. The virtual point K will be described later.
The posture following control mode is a virtual space SP- such that the posture of the virtual camera CM in the virtual space SP-V is, for example, such that the virtual point K is located in the imaging direction LC when viewed from the virtual camera CM. This is a control mode for controlling the virtual camera CM in V. Further, the virtual camera control unit 112 changes the position PC of the virtual camera CM in the virtual space SP-V based on the posture information B in the posture following control mode.

モード指定部111は、仮想カメラ制御部112の制御モードを指定する。
表示情報生成部114は、仮想カメラCMによる仮想空間SP-Vの撮像結果を表す表示情報DSを生成し、当該表示情報DSを表示部12に供給することで、表示部12に対して表示画像GHを表示させる。
キャラクタ制御部113は、モーション情報DMに基づいて、キャラクタVにモーションを実行させる。
The mode specifying unit 111 specifies a control mode of the virtual camera control unit 112.
The display information generation unit 114 generates display information DS representing the imaging result of the virtual space SP-V by the virtual camera CM, and supplies the display information DS to the display unit 12, thereby displaying the display image on the display unit 12. Display GH.
The character control unit 113 causes the character V to execute a motion based on the motion information DM.

図9は、端末装置10のハードウェア構成の一例を示すハードウェア構成図である。   FIG. 9 is a hardware configuration diagram illustrating an example of a hardware configuration of the terminal device 10.

図9に示すように、端末装置10は、端末装置10の各部を制御するプロセッサ1000(「情報処理装置」の一例)と、各種情報を記憶するメモリ1001と、端末装置10の姿勢変化を検出して検出結果を示す姿勢情報Bを出力する角速度センサ1002と、各種画像を表示可能な表示装置1003と、端末装置10のユーザUによる操作を受け付けるための入力装置1004と、を備える。   As illustrated in FIG. 9, the terminal device 10 includes a processor 1000 (an example of an “information processing device”) that controls each unit of the terminal device 10, a memory 1001 that stores various information, and detects a change in attitude of the terminal device 10. An angular velocity sensor 1002 that outputs posture information B indicating the detection result, a display device 1003 that can display various images, and an input device 1004 for receiving an operation by the user U of the terminal device 10.

メモリ1001は、例えば、プロセッサ1000の作業領域として機能するRAM(Random Access Memory)等の揮発性メモリと、端末装置10の制御プログラムPRG等の各種情報を記憶するEEPROM(Electrically Erasable Programmable Read-Only Memory)等の不揮発性メモリとを含み、記憶部15として機能する。
プロセッサ1000は、例えば、CPU(Central Processing Unit)であり、メモリ1001に記憶された制御プログラムPRGを実行し、当該制御プログラムPRGに従って動作することで、制御部11として機能する。
角速度センサ1002は、上述の通り、X軸角速度センサ、Y軸角速度センサ、及び、Z軸角速度センサを備え、姿勢情報生成部14として機能する。
表示装置1003及び入力装置1004は、例えば、タッチパネルであり、表示部12及び操作部13として機能する。なお、表示装置1003及び入力装置1004は、別体として構成されていてもよい。また、入力装置1004は、タッチパネル、操作ボタン、キーボード、ジョイスティック、及び、マウス等のポインティングデバイスの一部または全部を含む、1または複数の機器から構成されるものであってもよい。
The memory 1001 includes, for example, a volatile memory such as a RAM (Random Access Memory) that functions as a work area of the processor 1000 and an EEPROM (Electrically Erasable Programmable Read-Only Memory) that stores various information such as a control program PRG of the terminal device 10. ), And functions as the storage unit 15.
The processor 1000 is, for example, a CPU (Central Processing Unit), executes the control program PRG stored in the memory 1001, and operates according to the control program PRG to function as the control unit 11.
As described above, the angular velocity sensor 1002 includes the X-axis angular velocity sensor, the Y-axis angular velocity sensor, and the Z-axis angular velocity sensor, and functions as the posture information generation unit 14.
The display device 1003 and the input device 1004 are, for example, touch panels, and function as the display unit 12 and the operation unit 13. Note that the display device 1003 and the input device 1004 may be configured separately. The input device 1004 may be configured by one or a plurality of devices including a touch panel, operation buttons, a keyboard, a joystick, and a part or all of a pointing device such as a mouse.

なお、プロセッサ1000は、CPUに加え、または、CPUに替えて、GPU(Graphics Processing Unit)、DSP(Digital Signal Processor)、または、FPGA(Field Programmable Gate Array)、等の、ハードウェアを含んで構成されるものであってもよい。この場合、プロセッサ1000により実現される制御部11の一部または全部は、DSP等のハードウェアにより実現されてもよい。   Note that the processor 1000 is configured to include hardware such as a GPU (Graphics Processing Unit), a DSP (Digital Signal Processor), or an FPGA (Field Programmable Gate Array) in addition to or instead of the CPU. May be performed. In this case, a part or all of the control unit 11 realized by the processor 1000 may be realized by hardware such as a DSP.

[3.端末装置の動作]
以下、図10乃至図19を参照しながら、端末装置10の動作の一例について説明する。
[3. Operation of Terminal Device]
Hereinafter, an example of the operation of the terminal device 10 will be described with reference to FIGS.

図10及び図11は、端末装置10が表示部12に表示画像GHを表示させる表示処理を実行する場合における、端末装置10の動作の一例を示すフローチャートである。なお、本実施形態では、例えば、ユーザUが、表示処理を開始させる旨の所定の開始操作を操作部13から入力した場合に、端末装置10が、表示処理を開始させることとする。   FIGS. 10 and 11 are flowcharts illustrating an example of the operation of the terminal device 10 when the terminal device 10 performs a display process of displaying the display image GH on the display unit 12. In the present embodiment, for example, when the user U inputs a predetermined start operation to start the display process from the operation unit 13, the terminal device 10 starts the display process.

[3.1.位置追従制御モード]
図10に示すように、表示処理が開始されると、モード指定部111は、制御モードを位置追従制御モードに設定する(S100)。
[3.1. Position following control mode]
As shown in FIG. 10, when the display process is started, the mode specifying unit 111 sets the control mode to the position following control mode (S100).

次に、仮想カメラ制御部112は、モード指定部111が制御モードを位置追従制御モードに設定した際のHMD1の姿勢を、「初期姿勢」として定める(S102)。
なお、以下では、HMD1が初期姿勢である場合の装置座標系Σを、「初期座標系ΣS1」と称する。また、以下では、後述する図12に示すように、モード指定部111が制御モードを位置追従制御モードに設定した際の仮想カメラCMの撮像方向LCを、「初期撮像方向LC1」と称する。
Next, the virtual camera control unit 112 determines the attitude of the HMD 1 when the mode specifying unit 111 sets the control mode to the position following control mode as an “initial attitude” (S102).
In the following, the device coordinate system S S when the HMD 1 is in the initial posture is referred to as “initial coordinate system Σ S1 ”. Hereinafter, as shown in FIG. 12, which will be described later, the imaging direction LC of the virtual camera CM when the mode specifying unit 111 sets the control mode to the position following control mode is referred to as “initial imaging direction LC1”.

次に、キャラクタ制御部113は、モーション情報DMに基づいて、仮想空間SP-VにおけるキャラクタVの位置及び形状(体勢)を決定し、当該決定の結果を示すキャラクタ情報DCを生成する(S104)。
具体的には、キャラクタ制御部113は、ステップS104において、例えば、キャラクタVが実行しているモーションの種類を特定する。そして、キャラクタ制御部113は、ステップS104において、例えば、モーション情報DMのうち、特定した種類のモーションに係る情報と、キャラクタVが当該モーションを開始してからの経過時間と、に基づいて、現在時刻におけるキャラクタVの位置及び形状を決定することで、キャラクタ情報DCを生成する。
なお、本実施形態では、一例として、キャラクタVが予め定められた種類のモーションを実行している場合を想定する。但し、キャラクタ制御部113は、ステップS104において、キャラクタVが実行するモーションの種類を決定してもよい。
Next, the character control unit 113 determines the position and shape (posture) of the character V in the virtual space SP-V based on the motion information DM, and generates character information DC indicating the result of the determination (S104). .
Specifically, in step S104, the character control unit 113 specifies, for example, the type of motion executed by the character V. Then, in step S104, the character control unit 113 determines, based on, for example, information relating to the specified type of motion in the motion information DM and the time elapsed since the character V started the motion, By determining the position and the shape of the character V at the time, the character information DC is generated.
In the present embodiment, as an example, it is assumed that the character V is executing a predetermined type of motion. However, the character control unit 113 may determine the type of motion performed by the character V in step S104.

次に、キャラクタ制御部113は、ステップS104で生成されたキャラクタ情報DCに基づいて、仮想空間SP-Vにおける仮想点Kの位置PKを決定し、当該決定の結果を示す仮想点位置情報DK(「位置情報」の一例)を生成する(S106)。
具体的には、キャラクタ制御部113は、ステップS106において、例えば、キャラクタVを構成する、頭部、胴体部、及び、脚部等の複数の部位のうち、キャラクタVが実行しているモーションの種類に対応する部位に基づく位置(「オブジェクトに基づく位置」の一例)を、仮想点Kの位置として決定することで、仮想点位置情報DKを生成してもよい。より具体的には、キャラクタ制御部113は、ステップS106において、例えば、キャラクタVが実行しているモーションの種類に対応するキャラクタVの部位のうち、キャラクタVの表面上における特定の位置を、仮想点Kの位置として決定し、当該決定された仮想点Kの位置を示す仮想点位置情報DKを生成してもよい。なお、モーション情報DMは、各モーションに対応するキャラクタVの部位を示す情報を含んでいてもよい。
以下では、後述する図12に示すように、モード指定部111が制御モードを位置追従制御モードに設定した際の仮想点Kの位置PKを、「初期位置PK1」と称する。また、以下では、初期位置PK1を起点とし、位置PKを終点とするベクトルを、「仮想点位置ベクトルVK」と称する。
Next, the character control unit 113 determines the position PK of the virtual point K in the virtual space SP-V based on the character information DC generated in step S104, and the virtual point position information DK ( An example of “position information” is generated (S106).
Specifically, in step S106, for example, the character control unit 113 determines the motion of the character V that is being executed by the character V among a plurality of parts, such as the head, the body, and the legs, that constitute the character V. The virtual point position information DK may be generated by determining the position based on the part corresponding to the type (an example of the “position based on the object”) as the position of the virtual point K. More specifically, in step S106, for example, the character control unit 113 determines a specific position on the surface of the character V among the parts of the character V corresponding to the type of motion executed by the character V, The position of the point K may be determined, and virtual point position information DK indicating the position of the determined virtual point K may be generated. Note that the motion information DM may include information indicating a part of the character V corresponding to each motion.
Hereinafter, as shown in FIG. 12 described later, the position PK of the virtual point K when the mode specifying unit 111 sets the control mode to the position following control mode is referred to as “initial position PK1”. In the following, a vector starting from the initial position PK1 and ending at the position PK is referred to as a "virtual point position vector VK".

次に、仮想カメラ制御部112は、仮想点位置情報DKに基づいて、仮想空間SP-Vにおける仮想カメラCMの位置PCを決定する(S108)。
具体的には、仮想カメラ制御部112は、ステップS108において、仮想カメラCMから見て仮想点Kが初期撮像方向LC1に位置するように、仮想カメラCMの位置PCを決定する。
また、仮想カメラ制御部112は、例えば、仮想カメラCM及び仮想点Kの間の距離が、所定の距離Disとなるように、仮想カメラCMの位置PCを決定する。この場合、仮想カメラ制御部112は、例えば、仮想カメラCM及び仮想点Kの間の距離が、キャラクタVが実行しているモーションの種類に応じた距離となるように、仮想カメラCMの位置PCを決定してもよい。
なお、以下では、後述する図12に示すように、モード指定部111が制御モードを位置追従制御モードに設定した際の仮想カメラCMの位置PCを、「初期位置PC1」と称する。すなわち、本実施形態において、仮想カメラ制御部112は、ステップS108において、仮想点位置ベクトルVKの起点を初期位置PC1に配置した場合に、当該仮想点位置ベクトルVKの終点の位置を、仮想カメラCMの位置PCとして決定することになる。
また、以下では、モード指定部111が制御モードを位置追従制御モードに設定した際のカメラ座標系Σを、「初期カメラ座標系ΣC1」と称する。ここで、初期カメラ座標系ΣC1とは、原点の位置が初期位置PC1であり、X軸が初期撮像方向LC1となるような座標系である。すなわち、本実施形態において、仮想カメラ制御部112は、ステップS108において、仮想点位置ベクトルVKの起点を初期カメラ座標系ΣC1の原点に配置した場合に、当該仮想点位置ベクトルVKの終点の位置を、カメラ座標系Σの原点として決定することになる。
Next, the virtual camera control unit 112 determines the position PC of the virtual camera CM in the virtual space SP-V based on the virtual point position information DK (S108).
Specifically, in step S108, the virtual camera control unit 112 determines the position PC of the virtual camera CM so that the virtual point K is located in the initial imaging direction LC1 when viewed from the virtual camera CM.
In addition, the virtual camera control unit 112 determines the position PC of the virtual camera CM such that, for example, the distance between the virtual camera CM and the virtual point K is a predetermined distance Dis. In this case, for example, the virtual camera control unit 112 sets the position PC of the virtual camera CM so that the distance between the virtual camera CM and the virtual point K is a distance corresponding to the type of motion executed by the character V. May be determined.
In the following, as shown in FIG. 12, which will be described later, the position PC of the virtual camera CM when the mode specifying unit 111 sets the control mode to the position following control mode is referred to as “initial position PC1”. That is, in the present embodiment, when the starting point of the virtual point position vector VK is located at the initial position PC1 in step S108, the virtual camera control unit 112 determines the position of the end point of the virtual point position vector VK by the virtual camera CM. Is determined as the position PC.
In the following, the camera coordinate system sigma C when the mode designating unit 111 sets the control mode to the position following control mode, referred to as "initial camera coordinate system sigma C1". Here, the initial camera coordinate system sigma C1, the position of the origin is the initial position PC1, a coordinate system as X C axis is the initial imaging direction LC1. That is, in this embodiment, the virtual camera control section 112, in step S108, in the case of arranging the origin of the virtual point position vector VK to the origin of the initial camera coordinate system sigma C1, the position of the end point of the virtual point position vector VK and it will be determined as the origin of the camera coordinate system sigma C.

次に、姿勢情報取得部115は、姿勢情報生成部14から姿勢情報Bを取得する(S110)。
そして、仮想カメラ制御部112は、ステップS110において、姿勢情報取得部115が取得した姿勢情報Bに基づいて、HMD1の初期姿勢からの姿勢変化dB1を算出する(S112)。
なお、本実施形態において、仮想カメラ制御部112は、一例として、姿勢変化dB1を、初期座標系ΣS1における回転軸Wと、回転軸W周りの回転角度θと、により表現する。すなわち、本実施形態において、姿勢変化dB1は、HMD1が初期座標系ΣS1から見て回転軸W周りに回転角度θだけ回転した場合、初期座標系ΣS1における回転軸Wを示す方向ベクトルと、回転角度θを示す値と、を含む。
但し、姿勢変化dB1は、他の任意の表現方法により表現されるものであってもよい。例えば、姿勢変化dB1は、初期座標系ΣS1から装置座標系Σへの姿勢変化を示す姿勢変換行列により表現されるものであってもよいし、初期座標系ΣS1から装置座標系Σへの姿勢変化を示すクォータニオンにより表現されるものであってもよい。
また、以下では、HMD1が、回転軸W周りに回転角度θだけ回転した場合に、当該回転角度θを、「姿勢変化量」と称する場合がある。
Next, the posture information acquisition unit 115 acquires the posture information B from the posture information generation unit 14 (S110).
Then, in step S110, the virtual camera control unit 112 calculates a posture change dB1 from the initial posture of the HMD 1 based on the posture information B acquired by the posture information acquisition unit 115 (S112).
In the present embodiment, the virtual camera control section 112, as an example, the posture change dB1, representing a rotation axis W S in the initial coordinate system sigma S1, the rotation angle theta W about the rotation axis W S, the. That is, in this embodiment, the posture change dB1, when HMD1 is rotated by the rotation angle theta W to the rotation axis W S around as viewed from the initial coordinate system sigma S1, the direction showing the rotation axis W S in the initial coordinate system sigma S1 comprising a vector, and a value indicating the rotation angle theta W.
However, the posture change dB1 may be expressed by another arbitrary expression method. For example, the posture change dB1 can may be one represented by the posture conversion matrix indicating the posture change from the initial coordinate system sigma S1 to the apparatus coordinate system sigma S, the apparatus coordinate system from an initial coordinate system sigma S1 sigma S It may be expressed by a quaternion indicating a change in attitude toward.
In the following, HMD 1 is, when rotated by the rotation angle theta W about an axis of rotation W S, the rotation angle theta W, sometimes referred to as "the attitude change amount".

次に、仮想カメラ制御部112は、ステップS112において算出した姿勢変化dB1に基づいて、仮想空間SP-Vにおける仮想カメラCMの姿勢を決定する(S114)。
具体的には、ステップS114において、仮想カメラ制御部112は、撮像方向LCが、初期撮像方向LC1を、姿勢変化dB1に対応した姿勢変化量だけ変化させた方向となるように、仮想空間SP-Vにおける仮想カメラCMの姿勢を決定する。すなわち、ステップS114において、仮想カメラ制御部112は、カメラ座標系Σが、初期カメラ座標系ΣC1を、姿勢変化dB1に対応した姿勢変化量だけ変化した姿勢を有する座標系となるように、仮想空間SP-Vにおける仮想カメラCMの姿勢を決定する。
より具体的には、仮想カメラ制御部112は、ステップS114において、例えば、仮想空間SP-Vに仮想回転軸WSC1を設定する。ここで、仮想回転軸WSC1とは、仮想カメラCMの初期位置PC1と交差する仮想空間SP-V内の直線であって、初期カメラ座標系ΣC1から見た仮想回転軸WSC1の方向を表すベクトルの成分と、初期座標系ΣS1から見た回転軸Wの方向を表すベクトルの成分とが、同一となるような直線である。次に、仮想カメラ制御部112は、ステップS114において、例えば、カメラ座標系Σの各座標軸の方向が、初期カメラ座標系ΣC1を仮想回転軸WSC1周りに回転角度θだけ回転させた方向となるように、カメラ座標系Σを設定することで、仮想空間SP-Vにおける仮想カメラCMの姿勢を決定する。なお、上述の通り、仮想カメラ制御部112は、ステップS108において、カメラ座標系Σの原点の位置が、初期カメラ座標系ΣC1の原点の位置である初期位置PC1を、仮想点位置ベクトルVKだけ移動させた位置となるように、カメラ座標系Σの原点を設定する。
例えば、仮想カメラ制御部112は、HMD1が、初期姿勢から、Z軸周りのヨー方向Qに対して回転角度θだけ回転した場合、初期カメラ座標系ΣC1のZ軸を仮想回転軸WSC1として設定したうえで、カメラ座標系Σを、初期カメラ座標系ΣC1を仮想回転軸WSC1周りに回転角度θだけ回転させた姿勢の座標系とすることで、仮想カメラCMの姿勢を決定する。
例えば、仮想カメラ制御部112は、HMD1が、初期姿勢から、Y軸周りのピッチ方向Qに対して回転角度θだけ回転した場合、初期カメラ座標系ΣC1のY軸を仮想回転軸WSC1として設定したうえで、カメラ座標系Σを、初期カメラ座標系ΣC1を仮想回転軸WSC1周りに回転角度θだけ回転させた姿勢の座標系とすることで、仮想カメラCMの姿勢を決定する。
例えば、仮想カメラ制御部112は、HMD1が、初期姿勢から、X軸周りのロール方向Qに対して回転角度θだけ回転した場合、初期カメラ座標系ΣC1のX軸を仮想回転軸WSC1として設定したうえで、カメラ座標系Σを、初期カメラ座標系ΣC1を仮想回転軸WSC1周りに回転角度θだけ回転させた姿勢の座標系とすることで、仮想カメラCMの姿勢を決定する。
Next, the virtual camera control unit 112 determines the posture of the virtual camera CM in the virtual space SP-V based on the posture change dB1 calculated in step S112 (S114).
More specifically, in step S114, the virtual camera control unit 112 sets the virtual space SP- so that the imaging direction LC becomes a direction obtained by changing the initial imaging direction LC1 by an amount of posture change corresponding to the posture change dB1. The posture of the virtual camera CM in V is determined. That is, in step S114, the virtual camera control section 112, the camera coordinate system sigma C is the initial camera coordinate system sigma C1, so that the coordinate system having only change posture posture change amount corresponding to a change in posture dB1, The attitude of the virtual camera CM in the virtual space SP-V is determined.
More specifically, in step S114, the virtual camera control unit 112 sets, for example, the virtual rotation axis W SC1 in the virtual space SP-V. Here, the virtual rotation axis W SC1 is a straight line in the virtual space SP-V that intersects the initial position PC1 of the virtual camera CM, and indicates the direction of the virtual rotation axis W SC1 viewed from the initial camera coordinate system Σ C1. and components of the vector representing the components of the vector representing the direction of the axis of rotation W S viewed from the initial coordinate system sigma S1 is a straight line as the same. Next, the virtual camera control section 112, in step S114, for example, the direction of each coordinate axis of the camera coordinate system sigma C is rotated an initial camera coordinate system sigma C1 around a virtual rotation axis W SC1 by the rotation angle theta W so that the direction, by setting the camera coordinate system sigma C, to determine the attitude of the virtual camera CM in the virtual space SP-V. Incidentally, as described above, the virtual camera control section 112, in step S108, the position of the origin of the camera coordinate system sigma C is, the initial position PC1 is the position of the origin of the initial camera coordinate system sigma C1, virtual point position vector VK so that only moved position, to set the origin of the camera coordinate system sigma C.
For example, the virtual camera control section 112, HMD 1 is from the initial position, it rotates by the rotation angle theta W with respect to the yaw direction Q Z around Z S axis, a virtual rotation of the Z C-axis of the initial camera coordinate system sigma C1 after having set as an axis W SC1, the camera coordinate system sigma C, by the coordinate system of the orientation obtained by only rotating the rotation angle theta W initial camera coordinate system sigma C1 around a virtual rotation axis W SC1, the virtual camera CM Determine your posture.
For example, the virtual camera control section 112, HMD 1 is from the initial position, it rotates by the rotation angle theta W with respect to the pitch direction Q Y around Y S axis, virtual rotated Y C axis of the initial camera coordinate system sigma C1 after having set as an axis W SC1, the camera coordinate system sigma C, by the coordinate system of the orientation obtained by only rotating the rotation angle theta W initial camera coordinate system sigma C1 around a virtual rotation axis W SC1, the virtual camera CM Determine your posture.
For example, the virtual camera control section 112, HMD 1 is from the initial position, it rotates relative to the roll direction Q X around X S axis by the rotation angle theta W, virtual rotating the X C-axis of the initial camera coordinate system sigma C1 after having set as an axis W SC1, the camera coordinate system sigma C, by the coordinate system of the orientation obtained by only rotating the rotation angle theta W initial camera coordinate system sigma C1 around a virtual rotation axis W SC1, the virtual camera CM Determine your posture.

次に、表示情報生成部114は、仮想カメラCMにより仮想空間SP-Vを撮像した結果を示す表示情報DSを生成し、当該表示情報DSを表示部12に供給することで、表示部12に対して表示画像GHを表示させる(S116)。   Next, the display information generation unit 114 generates display information DS indicating a result of capturing the virtual space SP-V with the virtual camera CM, and supplies the display information DS to the display unit 12 so that the display information 12 is displayed on the display unit 12. On the other hand, the display image GH is displayed (S116).

その後、モード指定部111は、ステップS110で取得された姿勢情報B、または、ステップS112で算出された姿勢変化dB1に基づいて、制御モードを、姿勢追従制御モードに移行させるか否かを判定する(S118)。
本実施形態では、一例として、現在時刻よりも所定時間だけ前の時刻から現在時刻までの判定期間におけるHMD1の姿勢変化量が、所定の閾値以下の場合に、モード指定部111が、制御モードを、位置追従制御モードから姿勢追従制御モードに移行させる場合を想定する。このため、モード指定部111は、ステップS118において、例えば、判定期間におけるHMD1の姿勢変化量が、所定の閾値以下であるか否かを判定することで、制御モードを、姿勢追従制御モードに移行させるか否かを判定する。なお、モード指定部111は、ステップS118において、例えば、判定期間の開始時刻におけるHMD1の姿勢と、判定期間内の任意の時刻におけるHMD1の姿勢との差分が、所定の閾値よりも小さいか否かを判定することで、制御モードを、姿勢追従制御モードに移行させるか否かを判定してもよい。
そして、モード指定部111は、ステップS118における判定の結果が肯定の場合には、処理をステップS200に進め、ステップS118における判定の結果が否定の場合には、処理をステップS120に進める。
その後、制御部11は、ユーザUが、表示処理を終了させる旨の所定の終了操作を操作部13から入力したか否かを判定する(S120)。そして、制御部11は、ステップS120における判定の結果が否定の場合には、処理をステップS104に進め、ステップS120における判定の結果が肯定の場合には、表示処理を終了させる。
After that, the mode specifying unit 111 determines whether to shift the control mode to the posture following control mode based on the posture information B obtained in step S110 or the posture change dB1 calculated in step S112. (S118).
In the present embodiment, as an example, when the posture change amount of the HMD 1 in the determination period from the time before the current time by a predetermined time to the current time is equal to or less than a predetermined threshold, the mode specifying unit 111 sets the control mode to Assume that the mode is shifted from the position following control mode to the posture following control mode. For this reason, the mode specifying unit 111 shifts the control mode to the attitude following control mode by determining, for example, whether the amount of change in the attitude of the HMD 1 during the determination period is equal to or less than a predetermined threshold value in step S118. It is determined whether or not to make it. In step S118, for example, the mode specifying unit 111 determines whether the difference between the attitude of the HMD 1 at the start time of the determination period and the attitude of the HMD 1 at any time during the determination period is smaller than a predetermined threshold. May be determined to determine whether to shift the control mode to the posture following control mode.
If the result of the determination in step S118 is affirmative, the mode specifying unit 111 proceeds to step S200, and if the result of the determination in step S118 is negative, proceeds to step S120.
Thereafter, the control unit 11 determines whether or not the user U has input a predetermined end operation for terminating the display process from the operation unit 13 (S120). Then, when the result of the determination in step S120 is negative, the control unit 11 advances the process to step S104, and when the result of the determination in step S120 is positive, ends the display process.

以下、図12〜図15を参照しつつ、制御モードが位置追従制御モードに設定されている場合における、仮想カメラCMの位置及び姿勢の変化の一例を説明する。   Hereinafter, an example of a change in the position and orientation of the virtual camera CM when the control mode is set to the position following control mode will be described with reference to FIGS.

図12〜図15は、−Y方向から仮想空間SP-Vを見た場合の、時刻t1から時刻t4にかけての仮想カメラCM及びキャラクタVの動きの一例を説明するための説明図である。
なお、図12〜図15に示す例では、キャラクタVが、図12に示す時刻t1から図13に示す時刻t2にかけて「座る」というモーションを実行し、その後、図14に示す時刻t3から図15に示す時刻t4にかけて「立つ」というモーションを実行する場合を想定する。すなわち、図12〜図15に示す例では、キャラクタVが、時刻t1において立っている状態となり、その後、時刻t2において座っている状態に変化し、その後、時刻t3まで座っている状態を継続し、その後、時刻t4において立っている状態に変化する場合を例示している。
また、図12〜図15に示す例では、仮想点Kが、キャラクタVの「鼻」に設定される場合を、一例として想定する。すなわち、図12〜図15に示す例では、「座る」というモーションの種類に対応する仮想点Kの位置、及び、「立つ」というモーションの種類に対応する仮想点Kの位置が、共に、キャラクタVの「鼻」である場合を、一例として想定する。
また、図12〜図15に示す例では、モード指定部111が、時刻t1において、制御モードを位置追従制御モードに設定する場合を想定する。すなわち、図12〜図15に示す例では、時刻t1におけるHMD1の姿勢が、初期姿勢となる。そして、図12〜図15に示す例では、HMD1が、時刻t1において初期姿勢となり、その後、時刻t2まで初期姿勢を維持し、その後、時刻t3においてY軸周りに回転角度θだけ回転をし、その後、時刻t4まで時刻t3における姿勢を維持する場合を、一例として想定する。
12 to 15 are explanatory views for explaining an example of movement of the virtual camera CM and the character V from -Y V direction when viewed virtual space SP-V, to time t4 from the time t1.
In the examples shown in FIGS. 12 to 15, the character V executes a motion of "sitting" from time t1 shown in FIG. 12 to time t2 shown in FIG. 13, and thereafter, from time t3 shown in FIG. It is assumed that a motion of "stand" is executed until time t4 shown in FIG. That is, in the examples shown in FIGS. 12 to 15, the character V is in a standing state at time t1, then changes to a sitting state at time t2, and then continues to be sitting until time t3. After that, a case where the state changes to a standing state at time t4 is illustrated.
In the examples illustrated in FIGS. 12 to 15, a case where the virtual point K is set to the “nose” of the character V is assumed as an example. That is, in the examples shown in FIGS. 12 to 15, the position of the virtual point K corresponding to the type of the motion of “sit” and the position of the virtual point K corresponding to the type of the motion of “stand” are both characters. The case of V “nose” is assumed as an example.
In the examples shown in FIGS. 12 to 15, it is assumed that the mode specifying unit 111 sets the control mode to the position following control mode at time t1. That is, in the examples shown in FIGS. 12 to 15, the posture of the HMD 1 at the time t1 is the initial posture. In the example shown in FIGS. 12 to 15, the HMD 1, with the initial position at time t1, then, keeping the initial orientation to the time t2, thereafter, the rotation by the rotation angle theta W about Y S axis at time t3 Thereafter, a case where the posture at time t3 is maintained until time t4 is assumed as an example.

図12に示すように、キャラクタ制御部113は、時刻t1において、立っている状態のキャラクタVの鼻が存在する位置PK(t1)に、仮想点Kを設定し、当該位置PK(t1)を初期位置PK1として定める。
また、仮想カメラ制御部112は、時刻t1において、初期姿勢に基づいて定められる撮像方向LC(t1)を初期撮像方向LC1として定める。なお、図12では、撮像方向LC(t1)が+X方向である場合を、一例として想定する。
そして、仮想カメラ制御部112は、時刻t1において、位置PK(t1)と初期撮像方向LC1とに基づいて、仮想カメラCMの位置PC(t1)を決定し、当該位置PC(t1)を初期位置PC1として定める。より具体的には、仮想カメラ制御部112は、時刻t1において、仮想カメラCMから見て初期撮像方向LC1に位置PK(t1)が位置するように、仮想カメラCMの位置PC(t1)を決定する。また、仮想カメラ制御部112は、時刻t1において、初期姿勢に対応するカメラ座標系Σを、初期カメラ座標系ΣC1として定める。
As shown in FIG. 12, at time t1, the character control unit 113 sets a virtual point K at a position PK (t1) where the nose of the standing character V exists, and sets the position PK (t1) to the position PK (t1). Determined as the initial position PK1.
In addition, at time t1, the virtual camera control unit 112 determines the imaging direction LC (t1) determined based on the initial posture as the initial imaging direction LC1. In FIG. 12, a case where the imaging direction LC (t1) is the + XV direction is assumed as an example.
Then, at time t1, the virtual camera control unit 112 determines the position PC (t1) of the virtual camera CM based on the position PK (t1) and the initial imaging direction LC1, and sets the position PC (t1) to the initial position. Defined as PC1. More specifically, at time t1, the virtual camera control unit 112 determines the position PC (t1) of the virtual camera CM such that the position PK (t1) is located in the initial imaging direction LC1 when viewed from the virtual camera CM. I do. Further, the virtual camera control section 112, at time t1, the camera coordinate system sigma C corresponding to the initial position, defined as the initial camera coordinate system sigma C1.

図13に示すように、キャラクタ制御部113は、時刻t2において、座っている状態のキャラクタVの鼻が存在する位置PK(t2)に、仮想点Kを設定する。また、キャラクタ制御部113は、初期位置PK1を起点とし位置PK(t2)を終点とするベクトルを、仮想点位置ベクトルVK(t2)として定める。
上述の通り、図12〜図15に示す例では、HMD1が、時刻t1から時刻t2まで初期姿勢を維持する場合を想定する。このため、仮想カメラ制御部112は、時刻t2において、初期撮像方向LC1を、撮像方向LC(t2)として定める。
そして、仮想カメラ制御部112は、時刻t2において、仮想カメラCMから見て初期撮像方向LC1に位置PK(t2)が位置するように、仮想カメラCMの位置PC(t2)を決定する。すなわち、仮想カメラ制御部112は、時刻t2において、初期位置PC1を仮想点位置ベクトルVK(t2)だけ移動した位置を、位置PC(t2)として決定する。また、仮想カメラ制御部112は、時刻t2において、カメラ座標系Σを、位置PC(t2)を原点とし、初期カメラ座標系ΣC1と同一の姿勢の有する座標系として設定する。
As shown in FIG. 13, at time t2, the character control unit 113 sets a virtual point K at a position PK (t2) where the nose of the sitting character V exists. The character control unit 113 determines a vector starting from the initial position PK1 and ending at the position PK (t2) as a virtual point position vector VK (t2).
As described above, in the examples illustrated in FIGS. 12 to 15, it is assumed that the HMD 1 maintains the initial posture from time t1 to time t2. Therefore, at time t2, the virtual camera control unit 112 determines the initial imaging direction LC1 as the imaging direction LC (t2).
Then, at time t2, the virtual camera control unit 112 determines the position PC (t2) of the virtual camera CM such that the position PK (t2) is located in the initial imaging direction LC1 when viewed from the virtual camera CM. That is, at time t2, the virtual camera control unit 112 determines a position moved from the initial position PC1 by the virtual point position vector VK (t2) as the position PC (t2). Further, the virtual camera control section 112, at time t2, the camera coordinate system sigma C, an origin position PC (t2), set as a coordinate system having the initial camera coordinate system sigma C1 same posture and.

図14に示すように、キャラクタ制御部113は、時刻t3において、座っている状態のキャラクタVの鼻が存在する位置PK(t3)に、仮想点Kを設定する。上述の通り、図12〜図15に示す例では、キャラクタVが、時刻t2から時刻t3まで座っている状態を継続する。このため、位置PK(t3)は、位置PK(t2)と同一の位置となる。
また、上述の通り、図12〜図15に示す例では、HMD1が、時刻t2において初期姿勢であり、その後、時刻t2から時刻t3までの間に、Y軸周りに回転角度θだけ回転する。このため、仮想カメラ制御部112は、時刻t3において、初期カメラ座標系ΣC1のY軸と平行な仮想回転軸WSC1を設定する。そして、仮想カメラ制御部112は、時刻t3において、初期撮像方向LC1を仮想回転軸WSC1回りに回転角度θだけ回転させた方向を撮像方向LC(t3)として定める。
また、仮想カメラ制御部112は、時刻t3において、仮想カメラCMから見て初期撮像方向LC1に位置PK(t3)が位置するように、仮想カメラCMの位置PC(t3)を決定する。すなわち、仮想カメラ制御部112は、時刻t3において、位置PC(t2)と同一の位置を、仮想カメラCMの位置PC(t3)として決定する。また、仮想カメラ制御部112は、時刻t3において、カメラ座標系Σを、位置PC(t3)を原点とし、初期カメラ座標系ΣC1の各座標軸を仮想回転軸WSC1回りに回転角度θだけ回転させた座標軸を有する座標系として設定する。
As shown in FIG. 14, at time t3, the character control unit 113 sets a virtual point K at a position PK (t3) where the nose of the sitting character V exists. As described above, in the examples illustrated in FIGS. 12 to 15, the character V continues to be in a sitting state from time t2 to time t3. Therefore, the position PK (t3) is the same as the position PK (t2).
Further, as described above, in the example shown in FIGS. 12 to 15, HMD 1 is an initial position at time t2, thereafter, during the period from the time t2 to the time t3, around Y S axis by the rotation angle theta W Rotation I do. Therefore, the virtual camera control section 112 at time t3, to set the Y C-axis parallel to the virtual rotation axis W SC1 initial camera coordinate system sigma C1. Then, the virtual camera control section 112 at time t3, defining the direction was only rotate the rotation angle theta W Initial imaging direction LC1 virtual rotation axis W SC1 around the imaging direction LC (t3).
At time t3, the virtual camera control unit 112 determines the position PC (t3) of the virtual camera CM such that the position PK (t3) is located in the initial imaging direction LC1 when viewed from the virtual camera CM. That is, at time t3, the virtual camera control unit 112 determines the same position as the position PC (t2) as the position PC (t3) of the virtual camera CM. Further, the virtual camera control section 112 at time t3, the camera coordinate system sigma C, an origin position PC (t3), rotating each coordinate axis of the initial camera coordinate system sigma C1 to the virtual rotation axis W SC1 around angle theta W It is set as a coordinate system having a coordinate axis rotated only by.

図15に示すように、キャラクタ制御部113は、時刻t4において、立っている状態のキャラクタVの鼻が存在する位置PK(t4)に、仮想点Kを設定する。なお、図12〜図15に示す例では、位置PK(t4)が初期位置PK1と同一の位置である場合を、一例として想定する。
上述の通り、図12〜図15に示す例では、HMD1が、時刻t3における姿勢を時刻t4まで維持する。このため、仮想カメラ制御部112は、時刻t4において、初期撮像方向LC1を仮想回転軸WSC1回りに回転角度θだけ回転させた方向を、撮像方向LC(t4)として定める。
また、仮想カメラ制御部112は、時刻t4において、仮想カメラCMから見て初期撮像方向LC1に位置PK(t4)が位置するように、仮想カメラCMの位置PC(t4)を決定する。また、仮想カメラ制御部112は、時刻t4において、カメラ座標系Σを、位置PC(t4)を原点とし、初期カメラ座標系ΣC1の各座標軸を仮想回転軸WSC1回りに回転角度θだけ回転させた座標軸を有する座標系として設定する。
As shown in FIG. 15, at time t4, the character control unit 113 sets a virtual point K at a position PK (t4) where the nose of the standing character V exists. In the examples shown in FIGS. 12 to 15, it is assumed that the position PK (t4) is the same as the initial position PK1 as an example.
As described above, in the examples illustrated in FIGS. 12 to 15, the HMD 1 maintains the posture at the time t3 until the time t4. Therefore, the virtual camera control section 112, at time t4, the direction was only rotate the rotation angle theta W Initial imaging direction LC1 virtual rotation axis W SC1 around, defined as an imaging direction LC (t4).
At time t4, the virtual camera control unit 112 determines the position PC (t4) of the virtual camera CM such that the position PK (t4) is located in the initial imaging direction LC1 when viewed from the virtual camera CM. Further, the virtual camera control section 112, at time t4, the camera coordinate system sigma C, an origin position PC (t4), rotating each coordinate axis of the initial camera coordinate system sigma C1 to the virtual rotation axis W SC1 around angle theta W It is set as a coordinate system having a coordinate axis rotated only by.

[3.2.姿勢追従制御モード]
図11に示すように、モード指定部111は、制御モードを姿勢追従制御モードに設定する(S200)。
[3.2. Attitude tracking control mode]
As shown in FIG. 11, the mode specifying unit 111 sets the control mode to the posture following control mode (S200).

次に、仮想カメラ制御部112は、モード指定部111が制御モードを姿勢追従制御モードに設定した際のHMD1の姿勢を、「基準姿勢」として定める(S202)。
なお、以下では、HMD1が基準姿勢である場合の装置座標系Σを、「基準座標系ΣS2」と称する。また、以下では、後述する図16に示すように、モード指定部111が制御モードを姿勢追従制御モードに設定した際の仮想カメラCMの撮像方向LCを、「基準撮像方向LC2」と称する。また、以下では、モード指定部111が制御モードを姿勢追従制御モードに設定した際の仮想カメラCMの位置PCを、「基準位置PC2」と称する。
Next, the virtual camera control unit 112 determines the attitude of the HMD 1 when the mode specifying unit 111 sets the control mode to the attitude following control mode as a “reference attitude” (S202).
Hereinafter, the device coordinate system sigma S when HMD1 is the reference posture is referred to as a "reference coordinate system sigma S2". In the following, as shown in FIG. 16 described later, the imaging direction LC of the virtual camera CM when the mode specifying unit 111 sets the control mode to the posture following control mode is referred to as “reference imaging direction LC2”. In the following, the position PC of the virtual camera CM when the mode specifying unit 111 sets the control mode to the posture following control mode is referred to as “reference position PC2”.

次に、キャラクタ制御部113は、モーション情報DMに基づいて、仮想空間SP-VにおけるキャラクタVの位置及び形状を決定し、当該決定の結果を示すキャラクタ情報DCを生成する(S204)。   Next, the character control unit 113 determines the position and shape of the character V in the virtual space SP-V based on the motion information DM, and generates character information DC indicating the result of the determination (S204).

次に、キャラクタ制御部113は、ステップS204で生成されたキャラクタ情報DCに基づいて、仮想空間SP-Vにおける仮想点Kの位置PKを決定し、当該決定の結果を示す仮想点位置情報DKを生成する(S206)。
以下では、後述する図16に示すように、モード指定部111が制御モードを姿勢追従制御モードに設定した際の仮想点Kの位置PKを、「基準位置PK2」と称する。
Next, the character control unit 113 determines the position PK of the virtual point K in the virtual space SP-V based on the character information DC generated in step S204, and outputs the virtual point position information DK indicating the result of the determination. It is generated (S206).
Hereinafter, as shown in FIG. 16 described below, the position PK of the virtual point K when the mode specifying unit 111 sets the control mode to the posture following control mode is referred to as “reference position PK2”.

次に、仮想カメラ制御部112は、仮想点位置情報DKに基づいて、仮想空間SP-Vにおける仮想カメラCMの姿勢を決定する(S208)。
具体的には、仮想カメラ制御部112は、ステップS208において、基準位置PC2から仮想点Kを示す方向が撮像方向LCとなるように、仮想カメラCMの姿勢を決定する。換言すれば、仮想カメラ制御部112は、ステップS208において、カメラ座標系Σの各座標軸が、カメラ座標系ΣのX軸上に仮想点Kが位置するような方向を向くように、カメラ座標系Σを設定する。
なお、以下では、モード指定部111が制御モードを姿勢追従制御モードに設定した際のカメラ座標系Σを、「基準カメラ座標系ΣC2」と称する。ここで、基準カメラ座標系ΣC2とは、原点の位置が基準位置PC2であり、X軸が基準撮像方向LC2となるような座標系である。
また、以下では、基準撮像方向LC2と撮像方向LCとのなす角を、「撮像角度θ」と称する。
Next, the virtual camera control unit 112 determines the attitude of the virtual camera CM in the virtual space SP-V based on the virtual point position information DK (S208).
Specifically, in step S208, the virtual camera control unit 112 determines the orientation of the virtual camera CM so that the direction indicating the virtual point K from the reference position PC2 is the imaging direction LC. In other words, the virtual camera control section 112, in step S208, the coordinate axes of the camera coordinate system sigma C is, to face a direction that the camera coordinate system sigma C of X C-axis virtual point on K is located, setting the camera coordinate system sigma C.
In the following, the camera coordinate system sigma C when the mode designating unit 111 sets the control mode to the position following control mode, referred to as "reference camera coordinate system sigma C2". Here, the base camera coordinate system sigma C2, the position of the origin is the reference position PC2, a coordinate system as X C-axis is the reference imaging direction LC2.
Hereinafter, an angle between the reference imaging direction LC2 and the imaging direction LC is referred to as an “imaging angle θ K ”.

次に、姿勢情報取得部115は、姿勢情報生成部14から姿勢情報Bを取得する(S210)。
そして、仮想カメラ制御部112は、ステップS210において、姿勢情報取得部115が取得した姿勢情報Bに基づいて、HMD1の基準姿勢からの姿勢変化dB2を算出する(S212)。
なお、本実施形態において、仮想カメラ制御部112は、一例として、姿勢変化dB2を、基準座標系ΣS2における回転軸Wと、回転軸W周りの回転角度θと、により表現する。
Next, the posture information acquisition unit 115 acquires the posture information B from the posture information generation unit 14 (S210).
Then, in step S210, the virtual camera control unit 112 calculates a posture change dB2 from the reference posture of the HMD 1 based on the posture information B acquired by the posture information acquisition unit 115 (S212).
In the present embodiment, the virtual camera control section 112, as an example, the posture change dB2, a rotary shaft W S in the reference coordinate system sigma S2, the rotation angle theta W about the rotation axis W S, expressed by.

次に、仮想カメラ制御部112は、ステップS212において算出した姿勢変化dB2に基づいて、仮想空間SP-Vにおける仮想カメラCMの位置PCを決定する(S214)。
具体的には、ステップS214において、仮想カメラ制御部112は、まず、仮想空間SP-Vに仮想回転軸WSC2を設定する。ここで、仮想回転軸WSC2とは、仮想カメラCMの基準位置PC2と交差する仮想空間SP-V内の直線であって、基準カメラ座標系ΣC2から見た仮想回転軸WSC2の方向を表すベクトルの成分と、基準座標系ΣS2から見た回転軸Wの方向を表すベクトルの成分とが、同一となるような直線である。次に、仮想カメラ制御部112は、仮想回転軸WSC2と撮像方向LCとに交差(典型的には、直交)する方向を有し、回転角度θに応じた長さを有する、カメラ位置変化ベクトルVCを生成する。そして、仮想カメラ制御部112は、カメラ位置変化ベクトルVCの起点を基準位置PC2としたときの、カメラ位置変化ベクトルVCの終点の位置を、仮想カメラCMの位置PCとして決定する。換言すれば、仮想カメラ制御部112は、ステップS214において、カメラ座標系Σの原点の位置が、基準カメラ座標系ΣC2の原点の位置である基準位置PC2を、カメラ位置変化ベクトルVCだけ移動させた位置となるように、カメラ座標系Σの原点を設定する。なお、上述の通り、仮想カメラ制御部112は、ステップS208において、カメラ座標系Σの各座標軸の方向が、基準カメラ座標系ΣC2を仮想回転軸WSC2周りに回転角度θだけ回転させた方向となるように、カメラ座標系Σを設定することで、仮想空間SP-Vにおける仮想カメラCMの姿勢を決定する。
Next, the virtual camera control unit 112 determines the position PC of the virtual camera CM in the virtual space SP-V based on the posture change dB2 calculated in step S212 (S214).
Specifically, in step S214, the virtual camera control unit 112 first sets the virtual rotation axis WSC2 in the virtual space SP-V. Here, the virtual rotation axis W SC2 is a straight line in the virtual space SP-V that intersects the reference position PC2 of the virtual camera CM, and indicates the direction of the virtual rotation axis W SC2 viewed from the reference camera coordinate system Σ C2. and components of the vector representing the components of the vector representing the direction of the axis of rotation W S when viewed in the reference coordinate system sigma S2 is a straight line as the same. Next, the virtual camera control unit 112 has a camera position having a direction intersecting (typically, orthogonal) to the virtual rotation axis W SC2 and the imaging direction LC and having a length corresponding to the rotation angle θ W. Generate a change vector VC. Then, the virtual camera control unit 112 determines the position of the end point of the camera position change vector VC when the starting point of the camera position change vector VC is the reference position PC2 as the position PC of the virtual camera CM. In other words, the virtual camera control section 112, in step S214, the position of the origin of the camera coordinate system sigma C is, the reference position PC2 is the position of the origin of the reference camera coordinate system sigma C2, only the camera position change vector VC moves as the position is to set the origin of the camera coordinate system sigma C. Incidentally, as described above, the virtual camera control section 112, in step S208, the direction of each coordinate axis of the camera coordinate system sigma C is the reference camera coordinate system sigma C2 is rotated by the rotation angle theta W to the virtual rotation axis W SC2 around was a so that direction, by setting the camera coordinate system sigma C, to determine the attitude of the virtual camera CM in the virtual space SP-V.

次に、表示情報生成部114は、仮想カメラCMにより仮想空間SP-Vを撮像した結果を示す表示情報DSを生成し、当該表示情報DSを表示部12に供給することで、表示部12に対して表示画像GHを表示させる(S216)。   Next, the display information generation unit 114 generates display information DS indicating a result of capturing the virtual space SP-V with the virtual camera CM, and supplies the display information DS to the display unit 12 so that the display information 12 is displayed on the display unit 12. On the other hand, the display image GH is displayed (S216).

その後、モード指定部111は、ステップS210で取得された姿勢情報B、または、ステップS212で算出された姿勢変化dB2に基づいて、制御モードを、位置追従制御モードに移行させるか否かを判定する(S218)。
本実施形態では、一例として、現在時刻よりも所定時間だけ前の時刻から現在時刻までの判定期間におけるHMD1の姿勢変化量が、所定の閾値以下の場合に、モード指定部111が、制御モードを、姿勢追従制御モードから位置追従制御モードに移行させる場合を想定する。このため、モード指定部111は、ステップS218において、例えば、判定期間におけるHMD1の姿勢変化量が、所定の閾値以下であるか否かを判定することで、制御モードを、位置追従制御モードに移行させるか否かを判定する。
そして、モード指定部111は、ステップS218における判定の結果が肯定の場合には、処理をステップS100に進め、ステップS218における判定の結果が否定の場合には、処理をステップS220に進める。
その後、制御部11は、ユーザUが、表示処理を終了させる旨の所定の終了操作を操作部13から入力したか否かを判定する(S220)。そして、制御部11は、ステップS220における判定の結果が否定の場合には、処理をステップS204に進め、ステップS220における判定の結果が肯定の場合には、表示処理を終了させる。
Thereafter, the mode specifying unit 111 determines whether to shift the control mode to the position following control mode based on the posture information B acquired in step S210 or the posture change dB2 calculated in step S212. (S218).
In the present embodiment, as an example, when the posture change amount of the HMD 1 in the determination period from the time before the current time by a predetermined time to the current time is equal to or less than a predetermined threshold, the mode specifying unit 111 changes the control mode. It is assumed that the mode is shifted from the attitude following control mode to the position following control mode. For this reason, the mode designation unit 111 shifts the control mode to the position following control mode in step S218, for example, by determining whether or not the posture change amount of the HMD 1 during the determination period is equal to or less than a predetermined threshold. It is determined whether or not to make it.
If the result of the determination in step S218 is affirmative, the mode specifying unit 111 proceeds to step S100, and if the result of the determination in step S218 is negative, proceeds to step S220.
Thereafter, the control unit 11 determines whether or not the user U has input a predetermined end operation for terminating the display process from the operation unit 13 (S220). Then, when the result of the determination in step S220 is negative, the control unit 11 advances the process to step S204, and when the result of the determination in step S220 is positive, ends the display process.

以下、図16〜図19を参照しつつ、制御モードが姿勢追従制御モードに設定されている場合における、仮想カメラCMの位置及び姿勢の変化の一例を説明する。   Hereinafter, an example of a change in the position and orientation of the virtual camera CM when the control mode is set to the attitude following control mode will be described with reference to FIGS.

図16〜図19は、−Y方向から仮想空間SP-Vを見た場合の、時刻t5から時刻t8にかけての仮想カメラCM及びキャラクタVの動きの一例を説明するための説明図である。
なお、図16〜図19に示す例では、キャラクタVが、図16に示す時刻t5から図17に示す時刻t6にかけて「座る」というモーションを実行し、その後、図18に示す時刻t7から図19に示す時刻t8にかけて「立つ」というモーションを実行する場合を想定する。すなわち、図16〜図18に示す例では、キャラクタVが、時刻t5において立っている状態となり、その後、時刻t6において座っている状態に変化し、その後、時刻t7まで座っている状態を継続し、その後、時刻t8において立っている状態に変化する場合を例示している。
また、図16〜図19に示す例では、仮想点Kが、キャラクタVの「鼻」に設定される場合を、一例として想定する。
また、図16〜図19に示す例では、モード指定部111が、時刻t5において、制御モードを姿勢追従制御モードに設定する場合を想定する。すなわち、図16〜図19に示す例では、時刻t5におけるHMD1の姿勢が、基準姿勢となる。そして、図16〜図19に示す例では、HMD1が、時刻t5において基準姿勢となり、その後、時刻t6まで基準姿勢を維持し、その後、時刻t7においてY軸周りに回転角度θだけ回転をし、その後、時刻t8まで時刻t7における姿勢を維持する場合を、一例として想定する。
16 to 19 are explanatory views for explaining an example of movement of the virtual camera CM and the character V from -Y V direction when viewed virtual space SP-V, to time t8 from time t5.
In the examples shown in FIGS. 16 to 19, the character V executes a motion of “sitting” from time t5 shown in FIG. 16 to time t6 shown in FIG. 17, and thereafter, from time t7 shown in FIG. It is assumed that a motion of "stand" is executed until time t8 shown in FIG. That is, in the examples shown in FIGS. 16 to 18, the character V is in a standing state at time t5, changes to a sitting state at time t6, and then continues the sitting state until time t7. After that, a case where the state changes to a standing state at time t8 is illustrated.
In addition, in the examples illustrated in FIGS. 16 to 19, it is assumed as an example that the virtual point K is set to the “nose” of the character V.
In addition, in the examples illustrated in FIGS. 16 to 19, it is assumed that the mode specifying unit 111 sets the control mode to the posture following control mode at time t5. That is, in the examples shown in FIGS. 16 to 19, the posture of the HMD 1 at time t5 is the reference posture. In the example shown in FIGS. 16 to 19, the HMD 1, as the reference posture at the time t5, then maintaining the reference attitude to the time t6, then the rotation by the rotation angle theta W about Y S axis at time t7 Thereafter, a case where the posture at time t7 is maintained until time t8 is assumed as an example.

図16に示すように、キャラクタ制御部113は、時刻t5において、立っている状態のキャラクタVの鼻が存在する位置PK(t5)に、仮想点Kを設定し、当該位置PK(t5)を基準位置PK2として定める。
また、仮想カメラ制御部112は、時刻t5における仮想カメラCMの位置PC(t5)を基準位置PC2として定める。そして、仮想カメラ制御部112は、時刻t5において、位置PC(t5)から位置PK(t5)に向かう方向を撮像方向LC(t5)とし、当該撮像方向LC(t5)を、基準撮像方向LC2として定める。なお、図16では、撮像方向LC(t5)が+X方向である場合を、一例として想定する。
なお、仮想カメラ制御部112は、時刻t5において、基準姿勢に対応するカメラ座標系Σを、基準カメラ座標系ΣC2として定める。
As shown in FIG. 16, at time t5, the character control unit 113 sets a virtual point K at a position PK (t5) where the nose of the standing character V exists, and sets the position PK (t5). Determined as the reference position PK2.
Further, the virtual camera control unit 112 determines the position PC (t5) of the virtual camera CM at the time t5 as the reference position PC2. Then, at time t5, the virtual camera control unit 112 sets the direction from the position PC (t5) to the position PK (t5) as the imaging direction LC (t5), and sets the imaging direction LC (t5) as the reference imaging direction LC2. Determine. In FIG. 16, a case where the imaging direction LC (t5) is + X V direction is assumed as an example.
The virtual camera control section 112, at time t5, the camera coordinate system sigma C corresponding to the reference position, defined as the reference camera coordinate system sigma C2.

図17に示すように、キャラクタ制御部113は、時刻t6において、座っている状態のキャラクタVの鼻が存在する位置PK(t6)に、仮想点Kを設定する。この場合、キャラクタ制御部113は、例えば、基準位置PK2を起点とし位置PK(t6)を終点とするベクトルを、仮想点位置ベクトルVK(t6)として定めてもよい。
上述の通り、図16〜図19に示す例では、HMD1が、時刻t5から時刻t6まで基準姿勢を維持する場合を想定する。このため、仮想カメラ制御部112は、時刻t6において、仮想カメラCMの位置PC(t6)を、基準位置PC2に設定する。そして、仮想カメラ制御部112は、時刻t6において、基準位置PC2から位置PK(t6)に向かう方向を撮像方向LC(t6)として定める。この場合、基準撮像方向LC2と撮像方向LC(t6)とのなす角度が、撮像角度θとなる。
なお、仮想カメラ制御部112は、例えば、基準位置PC2と交差し、基準撮像方向LC2及び仮想点位置ベクトルVKの双方に直交するカメラ回転軸LKを設定し、基準撮像方向LC2をカメラ回転軸LK周りに撮像角度θだけ回転させることで、撮像方向LCを定めてもよい。図17に示す例では、カメラ回転軸LKは、基準カメラ座標系ΣC2のY軸となる。
すなわち、仮想カメラ制御部112は、時刻t6において、カメラ座標系Σを、位置PC(t6)を原点とし、基準カメラ座標系ΣC2をカメラ回転軸LK周りに撮像角度θだけ回転させた座標系として定める。
As shown in FIG. 17, at time t6, the character control unit 113 sets a virtual point K at a position PK (t6) where the nose of the sitting character V exists. In this case, the character control unit 113 may determine, for example, a vector starting from the reference position PK2 and ending at the position PK (t6) as the virtual point position vector VK (t6).
As described above, in the examples illustrated in FIGS. 16 to 19, it is assumed that the HMD 1 maintains the reference posture from time t5 to time t6. Therefore, at time t6, the virtual camera control unit 112 sets the position PC (t6) of the virtual camera CM to the reference position PC2. Then, at time t6, the virtual camera control unit 112 determines the direction from the reference position PC2 to the position PK (t6) as the imaging direction LC (t6). In this case, the angle between the reference imaging direction LC2 and the imaging direction LC (t6) becomes the shooting angle theta K.
The virtual camera control unit 112 sets, for example, a camera rotation axis LK that intersects the reference position PC2 and is orthogonal to both the reference imaging direction LC2 and the virtual point position vector VK, and sets the reference imaging direction LC2 to the camera rotation axis LK. by rotating by imaging angle theta K around, it may be determined imaging direction LC. In the example shown in FIG. 17, the camera rotating shaft LK becomes Y C axis of the base camera coordinate system sigma C2.
That is, the virtual camera control section 112, at time t6, the camera coordinate system sigma C, an origin position PC (t6), and the reference camera coordinate system sigma C2 is rotated by the imaging angle theta K around the camera rotation axis LK Defined as a coordinate system.

図18に示すように、キャラクタ制御部113は、時刻t7において、座っている状態のキャラクタVの鼻が存在する位置PK(t7)に、仮想点Kを設定する。上述の通り、図16〜図19に示す例では、キャラクタVが、時刻t6から時刻t7まで座っている状態を継続する。このため、位置PK(t7)は、位置PK(t6)と同一の位置となる。
また、仮想カメラ制御部112は、時刻t7において、基準位置PC2から位置PK(t7)に向かう方向を撮像方向LC(t7)として定める。この場合、基準撮像方向LC2と撮像方向LC(t7)とのなす角度が、撮像角度θとなる。すなわち、撮像方向LC(t7)は、撮像方向LC(t6)と同一の方向となる。
また、上述の通り、図16〜図19に示す例では、HMD1が、時刻t6において基準姿勢であり、その後、時刻t6から時刻t7までの間に、Y軸周りに回転角度θだけ回転する。このため、仮想カメラ制御部112は、時刻t7において、基準カメラ座標系ΣC2のY軸と平行な仮想回転軸WSC2を設定する。そして、仮想カメラ制御部112は、時刻t7において、仮想回転軸WSC2と撮像方向LC(t7)とに直交する方向を有し、回転角度θに応じた長さを有する、カメラ位置変化ベクトルVCを設定する。また、仮想カメラ制御部112は、時刻t7において、基準位置PC2を、カメラ位置変化ベクトルVCだけ移動させた位置を、位置PC(t7)として定める。
すなわち、仮想カメラ制御部112は、時刻t7において、カメラ座標系Σを、位置PC(t7)を原点とし、基準カメラ座標系ΣC2をカメラ回転軸LK周りに撮像角度θだけ回転させた座標系として定める。
As shown in FIG. 18, at time t7, the character control unit 113 sets a virtual point K at a position PK (t7) where the nose of the sitting character V exists. As described above, in the examples shown in FIGS. 16 to 19, the character V continues to be in a sitting state from time t6 to time t7. Therefore, the position PK (t7) is the same as the position PK (t6).
At time t7, the virtual camera control unit 112 determines the direction from the reference position PC2 to the position PK (t7) as the imaging direction LC (t7). In this case, the angle between the reference imaging direction LC2 and the imaging direction LC (t7) becomes the shooting angle theta K. That is, the imaging direction LC (t7) is the same as the imaging direction LC (t6).
Further, as described above, in the example shown in FIGS. 16 to 19, HMD 1 is a reference attitude at time t6, then during the period from the time t6 to time t7, the around Y S axis by the rotation angle theta W Rotation I do. Therefore, the virtual camera control section 112, at time t7, the set of Y C-axis parallel to the virtual rotation axis W SC2 reference camera coordinate system sigma C2. Then, at time t7, the virtual camera control unit 112 has a camera position change vector having a direction orthogonal to the virtual rotation axis W SC2 and the imaging direction LC (t7) and having a length corresponding to the rotation angle θ W. Set VC. Further, at time t7, the virtual camera control unit 112 determines a position obtained by moving the reference position PC2 by the camera position change vector VC as a position PC (t7).
That is, the virtual camera control section 112, at time t7, the camera coordinate system sigma C, an origin position PC (t7), and the reference camera coordinate system sigma C2 is rotated by the imaging angle theta K around the camera rotation axis LK Defined as a coordinate system.

図19に示すように、キャラクタ制御部113は、時刻t8において、立っている状態のキャラクタVの鼻が存在する位置PK(t8)に、仮想点Kを設定する。なお、図16〜図19に示す例では、位置PK(t8)が基準位置PK2と同一の位置である場合を、一例として想定する。
また、仮想カメラ制御部112は、時刻t8において、基準位置PC2から位置PK(t8)に向かう方向を撮像方向LC(t8)として定める。この場合、撮像方向LC(t8)は、基準撮像方向LC2と同一の方向となる。
上述の通り、図16〜図19に示す例では、HMD1が、時刻t7における姿勢を時刻t8まで維持する。このため、仮想カメラ制御部112は、時刻t8において、仮想回転軸WSC2と撮像方向LC(t8)とに直交する方向を有し、回転角度θに応じた長さを有する、カメラ位置変化ベクトルVCを設定する。そして、仮想カメラ制御部112は、時刻t8において、基準位置PC2を、カメラ位置変化ベクトルVCだけ移動させた位置を、位置PC(t8)として定める。
すなわち、仮想カメラ制御部112は、時刻t8において、カメラ座標系Σを、位置PC(t8)を原点とし、基準カメラ座標系ΣC2と同一の姿勢を有する座標系として定める。
As shown in FIG. 19, at time t8, the character control unit 113 sets a virtual point K at a position PK (t8) where the nose of the standing character V exists. In the examples shown in FIGS. 16 to 19, it is assumed as an example that the position PK (t8) is the same as the reference position PK2.
At time t8, the virtual camera control unit 112 determines the direction from the reference position PC2 to the position PK (t8) as the imaging direction LC (t8). In this case, the imaging direction LC (t8) is the same as the reference imaging direction LC2.
As described above, in the examples illustrated in FIGS. 16 to 19, the HMD 1 maintains the posture at the time t7 until the time t8. Therefore, the virtual camera control section 112, at time t8, the have a direction orthogonal to the virtual rotation axis W SC2 and imaging direction LC (t8), having a length corresponding to the rotation angle theta W, camera position changes Set the vector VC. Then, at time t8, the virtual camera control unit 112 determines a position obtained by moving the reference position PC2 by the camera position change vector VC as a position PC (t8).
That is, the virtual camera control section 112, at time t8, the camera coordinate system sigma C, an origin position PC (t8), defined as a coordinate system having the same orientation as the reference camera coordinate system sigma C2.

[4.実施形態の結論]
以上において説明したように、本実施形態において、表示制御部110は、制御モードが位置追従制御モードである場合に、仮想点Kの位置PKに基づいて、仮想カメラCMの位置PCを制御し、HMD1の姿勢変化を示す姿勢情報Bに基づいて、仮想カメラCMの撮像方向LCを制御することができる。すなわち、表示制御部110は、制御モードが位置追従制御モードである場合に、仮想カメラCMの位置及び姿勢の双方を変化させることができる。このため、本実施形態によれば、HMD1を装着したユーザUが、例えば、仮想カメラCMの撮像方向LCがキャラクタVを向くように、HMD1の姿勢を制御することで、表示部12にキャラクタVを継続的に表示することが可能となる。
[4. Conclusion of Embodiment]
As described above, in the present embodiment, when the control mode is the position following control mode, the display control unit 110 controls the position PC of the virtual camera CM based on the position PK of the virtual point K, The imaging direction LC of the virtual camera CM can be controlled based on the posture information B indicating a change in the posture of the HMD 1. That is, when the control mode is the position following control mode, the display control unit 110 can change both the position and the posture of the virtual camera CM. For this reason, according to the present embodiment, the user U wearing the HMD 1 controls the posture of the HMD 1 so that the imaging direction LC of the virtual camera CM is directed to the character V, so that the character V Can be displayed continuously.

また、本実施形態において、表示制御部110は、制御モードが姿勢追従制御モードである場合に、仮想点Kの位置PKに基づいて、仮想カメラCMの撮像方向LCを制御し、姿勢情報Bに基づいて、仮想カメラCMの位置PCを制御する。すなわち、表示制御部110は、制御モードが姿勢追従制御モードである場合に、仮想カメラCMの位置及び姿勢の双方を変化させることができる。このため、本実施形態によれば、HMD1を装着したユーザUが、例えば、仮想カメラCMの位置PCが、仮想カメラCMから見て撮像方向LCにキャラクタVが存在するような位置となるように、HMD1の姿勢を制御することで、表示部12にキャラクタVを継続的に表示することが可能となる。   Further, in the present embodiment, when the control mode is the posture following control mode, the display control unit 110 controls the imaging direction LC of the virtual camera CM based on the position PK of the virtual point K, and Based on this, the position PC of the virtual camera CM is controlled. That is, when the control mode is the posture follow-up control mode, the display control unit 110 can change both the position and the posture of the virtual camera CM. For this reason, according to the present embodiment, the user U wearing the HMD 1 is configured such that, for example, the position PC of the virtual camera CM is a position where the character V exists in the imaging direction LC as viewed from the virtual camera CM. , HMD1, the character V can be continuously displayed on the display unit 12.

[B.変形例]
以上の各形態は多様に変形され得る。具体的な変形の態様を以下に例示する。以下の例示から任意に選択された2以上の態様は、相互に矛盾しない範囲内で適宜に併合され得る。なお、以下に例示する変形例において作用や機能が実施形態と同等である要素については、以上の説明で参照した符号を流用して各々の詳細な説明を適宜に省略する。
[B. Modification]
Each of the above embodiments can be variously modified. Specific modifications will be described below. Two or more aspects arbitrarily selected from the following examples can be appropriately combined within a range not inconsistent with each other. In addition, in the modified examples illustrated below, elements having the same functions and functions as those of the embodiment will be denoted by the reference numerals used in the above description, and detailed description thereof will be appropriately omitted.

[変形例1]
上述した実施形態において、仮想カメラ制御部112は、制御モードが位置追従制御モードの場合、HMD1が初期姿勢からX軸周りのロール方向Qに対して回転角度θだけ回転したときに、仮想カメラCMの姿勢をカメラ座標系ΣのX軸を周りに回転角度θだけ回転させ、また、制御モードが姿勢追従制御モードの場合、HMD1が基準姿勢からX軸周りのロール方向Qに対して回転角度θだけ回転したときに、仮想カメラCMの位置PCをX軸に直交するカメラ位置変化ベクトルVC方向に対して、回転角度θに応じた距離だけ移動させるが、本発明はこのような態様に限定されるものではない。
[Modification 1]
In the above-described embodiment, when the control mode is the position following control mode, when the HMD 1 is rotated from the initial posture by the rotation angle θ W with respect to the roll direction Q X around the X S axis, the attitude of the virtual camera CM rotation angle theta W only is rotated about the X C-axis of the camera coordinate system sigma C, also, when the control mode is the attitude follow-up control mode, the roll direction about the X S axis HMD1 from the reference posture when rotated by the rotation angle theta W with respect to Q X, with respect to the camera position change vector VC direction perpendicular position PC of the virtual camera CM to X C-axis, but is moved by a distance corresponding to the rotation angle theta W However, the present invention is not limited to such an embodiment.

例えば、図20に示すように、仮想カメラ制御部112は、HMD1がロール方向Qに対して回転した場合には、仮想カメラCMをX軸に平行な方向に移動させてもよい。
具体的には、仮想カメラ制御部112は、HMD1が+Q方向に回転角度θだけ回転した場合には、仮想カメラCMを+X方向に対して回転角度θに応じた距離だけ移動させることで、仮想カメラCMとキャラクタVとの距離を近づけ、また、HMD1が−Q方向に回転角度θだけ回転した場合には、仮想カメラCMを−X方向に対して回転角度θに応じた距離だけ移動させることで、仮想カメラCMとキャラクタVとの距離を遠ざけてもよい。
For example, as shown in FIG. 20, the virtual camera control section 112, when HMD1 is rotated relative to the rolling direction Q X may be moved in a direction parallel to the virtual camera CM to X C axis.
Specifically, the virtual camera control section 112, when HMD1 is rotated by the rotation angle theta W in + Q X direction, is moved by a distance corresponding to the rotation angle theta W virtual camera CM against + X C direction it is, closer to the distance between the virtual camera CM and the character V, also when HMD1 is rotated by the rotation angle theta W in -Q X direction, the rotation angle theta W virtual camera CM with respect to -X C direction The distance between the virtual camera CM and the character V may be increased by moving the character V by a distance corresponding to the distance.

また、例えば、仮想カメラ制御部112は、HMD1がロール方向Qに対して回転(「所定の姿勢変化」の一例)した場合には、仮想カメラCMによる撮像範囲を変更してもよい。
具体的には、仮想カメラ制御部112は、HMD1が+Q方向に回転角度θだけ回転した場合には、回転角度θに応じた倍率で、仮想カメラCMによる撮像範囲を縮小し、キャラクタVが拡大して撮像されるようにし、また、HMD1が−Q方向に回転角度θだけ回転した場合には、回転角度θに応じた倍率で、仮想カメラCMによる撮像範囲を拡大し、キャラクタVが縮小して撮像されるようにしてもよい。
Further, for example, the virtual camera control section 112, when HMD1 is rotated relative to the roll direction Q X (an example of "predetermined posture change") may change the imaging range of the virtual camera CM.
Specifically, when the HMD 1 is rotated by the rotation angle θ W in the + Q X direction, the virtual camera control unit 112 reduces the imaging range of the virtual camera CM at a magnification corresponding to the rotation angle θ W, and so as to be imaged in an enlarged V is also when HMD1 is rotated by the rotation angle theta W in -Q X direction, at a magnification corresponding to a rotation angle theta W, to expand the imaging range of the virtual camera CM Alternatively, the character V may be reduced and imaged.

[変形例2]
上述した実施形態及び変形例において、キャラクタ制御部113は、キャラクタVの有する複数の部位のうち、キャラクタVが実行しているモーションの種類に対応する部位に対して、仮想点Kを設定するが、本発明はこのような態様に限定されるものではない。
例えば、キャラクタ制御部113は、キャラクタVが実行しているモーションの種類とは無関係に、キャラクタVの有する複数の部位のうち、所定の部位に対して、仮想点Kを設定してもよい。すなわち、キャラクタ制御部113は、キャラクタVの特定の部分に対して、仮想点Kを設定してもよい。
また、例えば、キャラクタ制御部113は、キャラクタVが実行しているモーションを、複数の単位動作に区分し、キャラクタVの有する複数の部位のうち、キャラクタVが実行している単位動作に対応する部位に対して、仮想点Kを設定してもよい。すなわち、キャラクタVが実行しているモーションが、一の単位動作と他の単位動作とを含む場合、キャラクタVが一の単位動作を実行している場合に、仮想点Kが設定される部位と、キャラクタVが他の単位動作を実行している場合に、仮想点Kが設定される部位とは、異なる部位であってもよい。
[Modification 2]
In the above-described embodiment and the modified example, the character control unit 113 sets the virtual point K for a part corresponding to the type of motion executed by the character V among a plurality of parts of the character V. However, the present invention is not limited to such an embodiment.
For example, the character control unit 113 may set the virtual point K for a predetermined part of a plurality of parts of the character V, regardless of the type of motion executed by the character V. That is, the character control unit 113 may set the virtual point K for a specific portion of the character V.
Further, for example, the character control unit 113 divides the motion performed by the character V into a plurality of unit actions, and corresponds to the unit action performed by the character V among a plurality of parts of the character V. A virtual point K may be set for a part. That is, when the motion performed by the character V includes one unit motion and another unit motion, when the character V performs one unit motion, the portion where the virtual point K is set is determined. In the case where the character V is performing another unit motion, the portion where the virtual point K is set may be different from the portion where the virtual point K is set.

[変形例3]
上述した実施形態及び変形例において、仮想カメラ制御部112は、制御モードが姿勢追従制御モードの場合、HMD1の姿勢変化dB2に応じて定められるカメラ位置変化ベクトルVCに基づいて、仮想カメラCMの位置PCを変化させるが、本発明はこのような態様に限定されるものではない。
例えば、仮想カメラ制御部112は、制御モードが姿勢追従制御モードの場合に、仮想カメラCMが、環境構成物EVと接触しないように、仮想カメラCMの位置PCを変化させてもよい。具体的には、仮想カメラ制御部112は、制御モードが姿勢追従制御モードの場合に、仮想カメラCMを、環境構成物EVからの距離が、距離α(αは、α≧0を満たす実数)以上離間した領域である、領域Ar1において変化させてもよい。
また、例えば、仮想カメラ制御部112は、制御モードが姿勢追従制御モードの場合に、仮想カメラCMが、仮想点Kから遠ざかり過ぎないように、仮想カメラCMの位置PCを変化させてもよい。具体的には、仮想カメラ制御部112は、制御モードが姿勢追従制御モードの場合に、仮想カメラCMを、仮想点Kからの距離が、距離β(βは、β>0を満たす実数)以内となる領域である、領域Ar2において変化させてもよい。
また、例えば、仮想カメラ制御部112は、制御モードが姿勢追従制御モードの場合に、仮想カメラCMが、キャラクタVと接触しないように、仮想カメラCMの位置PCを変化させてもよい。具体的には、仮想カメラ制御部112は、制御モードが姿勢追従制御モードの場合に、仮想カメラCMを、キャラクタVからの距離が、距離γ(γは、γ≧0を満たす実数)以上離間した領域である、領域Ar3において変化させてもよい。
また、例えば、仮想カメラ制御部112は、制御モードが姿勢追従制御モードの場合に、仮想カメラCMが領域Ar1に位置するという条件と、仮想カメラCMが領域Ar2に位置するという条件と、仮想カメラCMが領域Ar3に位置するという条件と、のうち、一部または全部の条件を満たすように、仮想カメラCMの位置PCを変化させてもよい。
[Modification 3]
In the embodiment and the modification described above, when the control mode is the posture following control mode, the virtual camera control unit 112 determines the position of the virtual camera CM based on the camera position change vector VC determined according to the posture change dB2 of the HMD1. Although PC is changed, the present invention is not limited to such an embodiment.
For example, when the control mode is the posture follow-up control mode, the virtual camera control unit 112 may change the position PC of the virtual camera CM so that the virtual camera CM does not contact the environmental component EV. Specifically, when the control mode is the posture follow-up control mode, the virtual camera control unit 112 sets the virtual camera CM at a distance α from the environmental component EV to a distance α (α is a real number satisfying α ≧ 0). The change may be made in the region Ar1, which is a region separated as described above.
Further, for example, when the control mode is the posture follow-up control mode, the virtual camera control unit 112 may change the position PC of the virtual camera CM so that the virtual camera CM does not move too far from the virtual point K. Specifically, when the control mode is the posture following control mode, the virtual camera control unit 112 sets the virtual camera CM at a distance from the virtual point K within a distance β (β is a real number satisfying β> 0). May be changed in a region Ar2, which is a region where
Further, for example, when the control mode is the posture follow-up control mode, the virtual camera control unit 112 may change the position PC of the virtual camera CM so that the virtual camera CM does not contact the character V. Specifically, when the control mode is the posture follow-up control mode, the virtual camera control unit 112 separates the virtual camera CM from the character V by a distance γ (γ is a real number satisfying γ ≧ 0) or more. It may be changed in the region Ar3, which is the region that has been set.
Further, for example, when the control mode is the posture follow-up control mode, the virtual camera control unit 112 determines a condition that the virtual camera CM is located in the area Ar1, a condition that the virtual camera CM is located in the area Ar2, The position PC of the virtual camera CM may be changed so as to satisfy some or all of the conditions that CM is located in the area Ar3.

[変形例4]
上述した実施形態及び変形例において、制御部11は、位置追従制御モード及び姿勢追従制御モードの、2つの制御モードによる表示処理の実行が可能であるが、本発明はこのような態様に限定されるものではない。制御部11は、位置追従制御モード及び姿勢追従制御モードのうち、一方の制御モードによる表示処理の実行が可能であってもよい。
例えば、制御部11は、図21に示すように、位置追従制御モードにより表示処理を実行するものであってもよい。なお、図21に示すフローチャートは、制御部11が、ステップS118及びステップS200〜S220の処理を実行しない点を除き、図10及び図11に示すフローチャートと同様である。
また、例えば、制御部11は、図22に示すように、姿勢追従制御モードにより表示処理を実行するものであってもよい。なお、図22に示すフローチャートは、制御部11が、ステップS218及びステップS100〜S120の処理を実行しない点を除き、図10及び図11に示すフローチャートと同様である。
[Modification 4]
In the above-described embodiment and the modified example, the control unit 11 can execute the display processing in two control modes of the position following control mode and the posture following control mode, but the present invention is not limited to such an aspect. Not something. The control unit 11 may be capable of executing display processing in one of the position following control mode and the posture following control mode.
For example, as shown in FIG. 21, the control unit 11 may execute display processing in a position following control mode. Note that the flowchart illustrated in FIG. 21 is the same as the flowchart illustrated in FIGS. 10 and 11 except that the control unit 11 does not execute the processing of step S118 and steps S200 to S220.
Further, for example, as shown in FIG. 22, the control unit 11 may execute a display process in a posture following control mode. Note that the flowchart illustrated in FIG. 22 is the same as the flowchart illustrated in FIG. 10 and FIG. 11 except that the control unit 11 does not execute the processing of step S218 and steps S100 to S120.

[変形例5]
上述した実施形態及び変形例において、仮想空間SP-VにおけるキャラクタVの位置及び形状は、モーション情報DMにより規定されているが、本発明はこのような態様に限定されるものではない。
例えば、キャラクタ制御部113は、モーション情報DMを用いずに、仮想空間SP-VにおけるキャラクタVの位置及び形状を決定してもよい。
具体的には、キャラクタ制御部113は、例えば、ユーザUによる操作部13の操作結果、または、ユーザUに装着されたHMD1の姿勢の変化に基づいて、仮想空間SP-VにおけるキャラクタVの位置及び形状を決定してもよい。
また、端末装置10は、外部装置(図示省略)と通信可能な通信装置(図示省略)を具備していてもよい。この場合、キャラクタ制御部113は、通信装置が外部装置から受信した情報に基づいて、仮想空間SP-VにおけるキャラクタVの位置及び形状を決定してもよい。例えば、端末装置10が他の端末装置10と通信可能である場合、キャラクタ制御部113は、端末装置10に設けられた通信装置が受信した、他のユーザUによる他の端末装置10の操作結果に基づいて、仮想空間SP-VにおけるキャラクタVの位置及び形状を決定してもよい。
[Modification 5]
In the above embodiments and modifications, the position and shape of the character V in the virtual space SP-V are defined by the motion information DM, but the present invention is not limited to such an aspect.
For example, the character control unit 113 may determine the position and the shape of the character V in the virtual space SP-V without using the motion information DM.
Specifically, for example, the character control unit 113 determines the position of the character V in the virtual space SP-V based on the operation result of the operation unit 13 by the user U or the change in the posture of the HMD 1 mounted on the user U. And the shape may be determined.
Further, the terminal device 10 may include a communication device (not shown) capable of communicating with an external device (not shown). In this case, the character control unit 113 may determine the position and the shape of the character V in the virtual space SP-V based on information received from the external device by the communication device. For example, when the terminal device 10 can communicate with another terminal device 10, the character control unit 113 receives an operation result of another user U from another user U received by the communication device provided in the terminal device 10. , The position and the shape of the character V in the virtual space SP-V may be determined.

[変形例6]
上述した実施形態及び変形例において、HMD1は、HMD1を装着したユーザUの視線方向を検出するアイトラッキング機能を有していてもよい。
この場合、仮想カメラ制御部112は、位置追従制御モードにおいて、HMD1の姿勢変化dB1の代わりに、HMD1を装着したユーザUの視線方向に基づいて、仮想空間SP-Vにおける仮想カメラCMの姿勢を決定してもよい。
また、この場合、仮想カメラ制御部112は、姿勢追従制御モードにおいて、HMD1の姿勢変化dB2の代わりに、HMD1を装着したユーザUの視線方向に基づいて、仮想空間SP-Vにおける仮想カメラCMの位置PCを決定してもよい。
[Modification 6]
In the above-described embodiment and the modification, the HMD 1 may have an eye tracking function for detecting a line-of-sight direction of the user U wearing the HMD 1.
In this case, in the position following control mode, the virtual camera control unit 112 changes the posture of the virtual camera CM in the virtual space SP-V based on the gaze direction of the user U wearing the HMD1 instead of the posture change dB1 of the HMD1. You may decide.
Further, in this case, in the posture following control mode, the virtual camera control unit 112 controls the virtual camera CM in the virtual space SP-V based on the line of sight of the user U wearing the HMD1 instead of the posture change dB2 of the HMD1. The position PC may be determined.

[変形例7]
上述した実施形態及び変形例において、仮想カメラ制御部112は、現在時刻の仮想点Kの位置PKに基づいて、仮想カメラCMの位置または姿勢を決定するが、本発明はこのような態様に限定されるものではない。仮想カメラ制御部112は、現在時刻の仮想点Kの位置PKと、過去の仮想カメラCMの位置PC、若しくは、過去の仮想カメラCMの位置PCの変化量、または、過去の仮想カメラCMの姿勢、若しくは、過去の仮想カメラCMの姿勢の変化量と、に基づいて、現在時刻の仮想カメラCMの位置または姿勢を決定してもよい。
[Modification 7]
In the above embodiments and modifications, the virtual camera control unit 112 determines the position or orientation of the virtual camera CM based on the position PK of the virtual point K at the current time, but the present invention is limited to such an aspect. It is not something to be done. The virtual camera control unit 112 calculates the amount of change in the position PK of the virtual point K at the current time and the position PC of the past virtual camera CM, or the amount of change in the position PC of the past virtual camera CM, or the posture of the past virtual camera CM. Alternatively, the position or orientation of the virtual camera CM at the current time may be determined based on the past change amount of the orientation of the virtual camera CM.

例えば、仮想カメラ制御部112は、位置追従制御モードにおいて、現在時刻の仮想点Kの位置PKと、過去の仮想カメラCMの位置PC、または、過去の仮想カメラCMの位置PCの変化量と、に基づいて、仮想カメラCMの位置PCを決定してもよい。具体的には、仮想カメラ制御部112は、位置追従制御モードにおいて、現在時刻よりも過去の単位期間TU1(「第1の単位期間」の一例)における、仮想カメラCMの位置PCの変化量と、単位期間TU1に後続し、単位期間TU1と同一の時間長を有し、現在時刻を含む単位期間TU2(「第2の単位期間」の一例)における、仮想カメラCMの位置PCの変化量とが、所定の閾値(「第1閾値」の一例)以下となるように、現在時刻の仮想点Kの位置PKに基づいて決定された仮想カメラCMの位置PCを補正してもよい。この場合、キャラクタVが単位期間TU1において実行するモーションと、キャラクタVが単位期間TU2において実行するモーションとは、異なる種類のモーションであってもよい。
この例によれば、仮想空間SP-Vにおいて、仮想カメラCMの位置PCが急激に変化することを防止することができるため、仮想カメラCMの撮像結果である表示画像GHを視認するユーザUが、不快感を感じることを防止することが可能となる。
For example, in the position following control mode, the virtual camera control unit 112 calculates the position PK of the virtual point K at the current time, the position PC of the past virtual camera CM, or the amount of change in the position PC of the past virtual camera CM, May be used to determine the position PC of the virtual camera CM. Specifically, in the position following control mode, the virtual camera control unit 112 determines the amount of change in the position PC of the virtual camera CM in a unit period TU1 (an example of a “first unit period”) that is earlier than the current time. And the amount of change in the position PC of the virtual camera CM in a unit period TU2 (an example of a “second unit period”) following the unit period TU1 and having the same time length as the unit period TU1 and including the current time. However, the position PC of the virtual camera CM determined based on the position PK of the virtual point K at the current time may be corrected so that the value is equal to or less than a predetermined threshold (an example of a “first threshold”). In this case, the motion performed by the character V in the unit period TU1 and the motion performed by the character V in the unit period TU2 may be different types of motion.
According to this example, in the virtual space SP-V, it is possible to prevent the position PC of the virtual camera CM from suddenly changing, so that the user U who visually recognizes the display image GH that is the imaging result of the virtual camera CM can be used. This makes it possible to prevent the user from feeling uncomfortable.

また、例えば、仮想カメラ制御部112は、姿勢追従制御モードにおいて、現在時刻の仮想点Kの位置PKと、過去の仮想カメラCMの姿勢、または、過去の仮想カメラCMの姿勢の変化量と、に基づいて、仮想カメラCMの姿勢を決定してもよい。具体的には、仮想カメラ制御部112は、姿勢追従制御モードにおいて、現在時刻よりも過去の単位期間TU3(「第1の単位期間」の他の例)における、仮想カメラCMの姿勢の変化量と、単位期間TU3に後続し、単位期間TU3と同一の時間長を有し、現在時刻を含む単位期間TU4(「第2の単位期間」の他の例)における、仮想カメラCMの姿勢の変化量とが、所定の閾値(「第2閾値」の一例)以下となるように、現在時刻の仮想点Kの位置PKに基づいて決定された仮想カメラCMの姿勢を補正してもよい。この場合、キャラクタVが単位期間TU3において実行するモーションと、キャラクタVが単位期間TU4において実行するモーションとは、異なる種類のモーションであってもよい。
この例によれば、仮想空間SP-Vにおいて、仮想カメラCMの姿勢が急激に変化することを防止することができるため、仮想カメラCMの撮像結果である表示画像GHを視認するユーザUが、不快感を感じることを防止することが可能となる。
Also, for example, in the posture following control mode, the virtual camera control unit 112 calculates the position PK of the virtual point K at the current time, the posture of the past virtual camera CM, or the amount of change in the posture of the past virtual camera CM, , The attitude of the virtual camera CM may be determined. Specifically, in the posture following control mode, the virtual camera control unit 112 calculates the amount of change in the posture of the virtual camera CM in a unit period TU3 (another example of the “first unit period”) that is earlier than the current time. And a change in the attitude of the virtual camera CM in a unit period TU4 (another example of the “second unit period”) following the unit period TU3, having the same time length as the unit period TU3, and including the current time. The posture of the virtual camera CM determined based on the position PK of the virtual point K at the current time may be corrected so that the amount is equal to or less than a predetermined threshold (an example of a “second threshold”). In this case, the motion performed by the character V in the unit period TU3 and the motion performed by the character V in the unit period TU4 may be different types of motion.
According to this example, in the virtual space SP-V, it is possible to prevent the posture of the virtual camera CM from suddenly changing, so that the user U who visually recognizes the display image GH that is the imaging result of the virtual camera CM, It is possible to prevent the user from feeling uncomfortable.

[変形例8]
上述した実施形態及び変形例において、姿勢情報Bは、端末装置10の姿勢変化の検出結果を示すが、本発明はこのような態様に限定されるものではない。姿勢情報Bは、例えば、地上に固定された座標系から見た端末装置10の姿勢を示す情報であってもよい。
この場合、姿勢情報生成部14は、例えば、角速度センサ、及び、地磁気センサの一方または双方を含んで構成されていてもよい。また、この場合、姿勢情報Bは、例えば、HMD1の外部に設けられ、HMD1を撮像する撮像装置から出力される画像情報であってもよい。
[Modification 8]
In the embodiments and the modifications described above, the posture information B indicates the detection result of the posture change of the terminal device 10, but the present invention is not limited to such an embodiment. The posture information B may be, for example, information indicating the posture of the terminal device 10 viewed from a coordinate system fixed on the ground.
In this case, the attitude information generation unit 14 may include, for example, one or both of an angular velocity sensor and a geomagnetic sensor. In this case, the posture information B may be, for example, image information that is provided outside the HMD 1 and that is output from an imaging device that images the HMD 1.

[変形例9]
上述した実施形態及び変形例において、情報処理装置は、HMD1に設けられるが、情報処理装置は、HMD1とは別個に設けられてもよい。
[Modification 9]
In the above embodiments and modifications, the information processing device is provided in the HMD 1, but the information processing device may be provided separately from the HMD 1.

図23は、本変形例に係る表示システムSYSの構成の一例を示すブロック図である。
図23に示すように、表示システムSYSは、情報処理装置20と、情報処理装置20と通信可能なヘッドマウントディスプレイ1Aと、を備える。このうち、情報処理装置20は、例えば、制御部11と、操作部13と、記憶部15とを備えてもよい。また、ヘッドマウントディスプレイ1Aは、表示部12と、姿勢情報生成部14とに加え、ヘッドマウントディスプレイ1Aを装着したユーザUによる操作を受け付ける操作部31と、各種情報を記憶する記憶部32と、を備えてもよい。
FIG. 23 is a block diagram illustrating an example of a configuration of a display system SYS according to the present modification.
As shown in FIG. 23, the display system SYS includes an information processing device 20 and a head mounted display 1A that can communicate with the information processing device 20. Among them, the information processing device 20 may include, for example, the control unit 11, the operation unit 13, and the storage unit 15. Further, the head mounted display 1A includes, in addition to the display unit 12 and the posture information generating unit 14, an operation unit 31 that receives an operation by the user U wearing the head mounted display 1A, a storage unit 32 that stores various information, May be provided.

[C.付記]
以上の記載から、本発明は例えば以下のように把握される。なお、各態様の理解を容易にするために、以下では、図面の参照符号を便宜的に括弧書きで付記するが、本発明を図示の態様に限定する趣旨ではない。
[C. Appendix]
From the above description, the present invention can be grasped, for example, as follows. In addition, in order to facilitate understanding of each embodiment, reference numerals in the drawings are appended in parentheses for convenience, but the present invention is not limited to the illustrated embodiment.

[付記1]
本発明の一態様に係る情報処理装置のプログラムは、プロセッサを具備する情報処理装置のプログラムであって、前記プロセッサを、仮想空間を仮想カメラで撮像した画像であって、両眼視差を利用した立体視画像を、ヘッドマウントディスプレイに設けられた表示部に表示させる表示制御部と、前記ヘッドマウントディスプレイの姿勢に関する姿勢情報を取得する取得部と、して機能させ、前記表示制御部は、前記仮想空間における仮想点の位置に関する位置情報に基づいて、前記仮想空間における前記仮想カメラの位置を変化させることが可能であり、前記姿勢情報に基づいて、前記仮想空間における前記仮想カメラの姿勢を変化させることが可能であり、前記仮想点は、前記仮想空間に存在するオブジェクトに基づく位置に設定され、前記仮想空間における前記オブジェクトの位置及び形状のうち少なくとも一方の変化に基づいて、前記仮想点の位置が変化する、ことを特徴とする。
[Appendix 1]
A program for an information processing device according to one embodiment of the present invention is a program for an information processing device including a processor, wherein the processor is an image obtained by capturing a virtual space with a virtual camera, and uses binocular parallax. A stereoscopic image, a display control unit that causes a display unit provided on a head-mounted display to display, and an acquisition unit that acquires posture information on the posture of the head-mounted display, functioning as the display control unit, It is possible to change the position of the virtual camera in the virtual space based on position information on the position of a virtual point in the virtual space, and change the posture of the virtual camera in the virtual space based on the posture information. And the virtual point is set to a position based on an object existing in the virtual space, Serial based on at least one of the change of the position and shape of the object in the virtual space, the position of the virtual point is changed, characterized in that.

この態様によれば、ヘッドマウントディスプレイを装着したユーザが、ヘッドマウントディスプレイの姿勢を変化させることにより、仮想空間における仮想カメラの姿勢を変化させることができ、また、表示制御部が、オブジェクトに基づく位置に設定された仮想点の位置に基づいて、仮想空間における仮想カメラの位置を変化させることができる。すなわち、この態様において、表示制御部は、ヘッドマウントディスプレイの姿勢の変化と、オブジェクトの位置または形状の変化と、に基づいて、仮想空間における仮想カメラの位置及び姿勢の双方を変化させることができる。このため、この態様によれば、ヘッドマウントディスプレイを装着したユーザが、例えば、仮想カメラの光軸方向がオブジェクトと交差するように、ヘッドマウントディスプレイの姿勢を制御することで、ヘッドマウントディスプレイの表示部に、オブジェクトを継続的に表示させることが可能となる。
また、この態様によれば、実空間においてヘッドマウントディスプレイの位置を変化させることなく、仮想空間における仮想カメラの位置及び姿勢の双方を変化させることができる。このため、この態様によれば、例えば、実空間においてヘッドマウントディスプレイの位置を変化させることで、仮想空間における仮想カメラの位置または姿勢を変化させる場合と比較して、ヘッドマウントディスプレイを装着したユーザが、容易に、仮想空間における仮想カメラを操作することが可能となる。
また、この態様によれば、表示制御部が、オブジェクトの位置に基づいて仮想カメラの位置を変化させつつ、ヘッドマウントディスプレイの姿勢に基づいて仮想カメラの姿勢を変化させる。このため、この態様によれば、ヘッドマウントディスプレイの表示部にオブジェクトを継続的に表示させることと、ヘッドマウントディスプレイを装着したユーザに対して、仮想カメラの姿勢の操作に係る自由度を提供することとの、両立が可能となる。
According to this aspect, the user wearing the head-mounted display can change the attitude of the virtual camera in the virtual space by changing the attitude of the head-mounted display. The position of the virtual camera in the virtual space can be changed based on the position of the virtual point set as the position. That is, in this aspect, the display control unit can change both the position and the posture of the virtual camera in the virtual space based on the change in the posture of the head mounted display and the change in the position or shape of the object. . For this reason, according to this aspect, the user wearing the head-mounted display controls the attitude of the head-mounted display so that the optical axis direction of the virtual camera intersects with the object, for example. The object can be continuously displayed on the section.
According to this aspect, both the position and the attitude of the virtual camera in the virtual space can be changed without changing the position of the head mounted display in the real space. Therefore, according to this aspect, for example, by changing the position of the head mounted display in the real space, the user wearing the head mounted display is compared with the case of changing the position or the posture of the virtual camera in the virtual space. However, it is possible to easily operate the virtual camera in the virtual space.
According to this aspect, the display control unit changes the position of the virtual camera based on the position of the head-mounted display while changing the position of the virtual camera based on the position of the object. Therefore, according to this aspect, it is possible to continuously display the object on the display unit of the head-mounted display, and to provide a user wearing the head-mounted display with a degree of freedom in operating the posture of the virtual camera. It is possible to achieve both.

なお、上記態様において、「仮想カメラ」とは、例えば、仮想空間を撮像する第1の仮想カメラと、仮想空間内のうち第1の仮想カメラとは異なる位置から仮想空間を撮像する第2の仮想カメラと、を備えるものであってもよい。また、この場合、「立体視画像」とは、例えば、仮想空間を第1の仮想カメラで撮像した、ユーザが左眼で視認するための左眼用画像と、仮想空間を第2の仮想カメラで撮像した、ユーザが右眼で視認するための右眼用画像と、を含む画像であってもよい。   In the above aspect, the “virtual camera” refers to, for example, a first virtual camera that captures an image of a virtual space and a second virtual camera that captures an image of the virtual space from a position different from the first virtual camera in the virtual space. And a virtual camera. In this case, the “stereoscopic image” refers to, for example, an image for the left eye that is captured by the first virtual camera in the virtual space and is visually recognized by the user with the left eye, and a virtual camera in the second virtual camera. And a right-eye image for the user to visually recognize with the right eye.

また、上記態様において、「ヘッドマウントディスプレイ」とは、例えば、頭部に装着可能な表示装置であってもよい。具体的には、「ヘッドマウントディスプレイ」とは、頭部に装着可能なゴーグル型または眼鏡型の表示装置であってもよい。また、「ヘッドマウントディスプレイ」とは、例えば、頭部に装着可能な装着具と、当該装着具に対して取り付けられた、スマートフォンのような携帯型の表示装置と、を有するものであってもよい。   In the above aspect, the “head-mounted display” may be, for example, a display device that can be mounted on the head. Specifically, the “head-mounted display” may be a goggle-type or glasses-type display device that can be worn on the head. Further, the “head-mounted display” may be, for example, a device having a wearing device that can be worn on the head and a portable display device such as a smartphone attached to the wearing device. Good.

また、上記態様において、「ヘッドマウントディスプレイの姿勢」とは、例えば、ヘッドマウントディスプレイの向きであってもよいし、ヘッドマウントディスプレイの傾きであってもよいし、ヘッドマウントディスプレイの向き及び傾きの双方を含む概念であってもよい。ここで、「ヘッドマウントディスプレイの向き」とは、例えば、現実空間における水平面内においてヘッドマウントディスプレイが向いている方向であってもよいし、ヘッドマウントディスプレイの基準方向と磁北方向とのなす角度であってもよい。また、「ヘッドマウントディスプレイの傾き」とは、例えば、ヘッドマウントディスプレイの基準方向と鉛直方向とのなす角度であってもよい。   In the above aspect, the “posture of the head-mounted display” may be, for example, the orientation of the head-mounted display, the inclination of the head-mounted display, or the orientation and inclination of the head-mounted display. The concept may include both. Here, the “head-mounted display orientation” may be, for example, a direction in which the head-mounted display is oriented in a horizontal plane in real space, or an angle between a reference direction of the head-mounted display and a magnetic north direction. There may be. Further, the “tilt of the head mounted display” may be, for example, an angle between a reference direction of the head mounted display and a vertical direction.

また、上記態様において、「姿勢情報」とは、例えば、ヘッドマウントディスプレイの姿勢を示す情報であってもよいし、ヘッドマウントディスプレイの姿勢変化を示す情報であってもよい。   In the above aspect, the “posture information” may be, for example, information indicating the posture of the head mounted display, or information indicating a change in the posture of the head mounted display.

また、上記態様において、「取得部」は、例えば、ヘッドマウントディスプレイから姿勢情報を取得してもよいし、ヘッドマウントディスプレイを撮像する撮像装置から姿勢情報を取得してもよい。取得部が、ヘッドマウントディスプレイから姿勢情報を取得する場合、ヘッドマウントディスプレイは、ヘッドマウントディスプレイの姿勢変化を示す情報を検出するためのセンサを備えていてもよいし、ヘッドマウントディスプレイの姿勢を示す情報を検出するためのセンサを備えていてもよい。ここで、「ヘッドマウントディスプレイの姿勢変化を示す情報を検出するためのセンサ」とは、例えば、角速度センサであってもよい。また、「ヘッドマウントディスプレイの姿勢を示す情報を検出するためのセンサ」とは、例えば、地磁気センサ、及び、角速度センサの一方または双方であってもよい。また、取得部が、ヘッドマウントディスプレイを撮像する撮像装置から姿勢情報を取得する場合、姿勢情報は、例えば、撮像装置によりヘッドマウントディスプレイを撮像した結果を示す画像であってもよい。   Further, in the above aspect, the “acquisition unit” may acquire the posture information from, for example, a head-mounted display, or may acquire the posture information from an imaging device that images the head-mounted display. When the acquisition unit acquires the posture information from the head mounted display, the head mounted display may include a sensor for detecting information indicating a change in the posture of the head mounted display, or indicates the posture of the head mounted display. A sensor for detecting information may be provided. Here, the “sensor for detecting information indicating a change in the attitude of the head mounted display” may be, for example, an angular velocity sensor. The “sensor for detecting information indicating the attitude of the head-mounted display” may be, for example, one or both of a geomagnetic sensor and an angular velocity sensor. When the acquisition unit acquires the posture information from the imaging device that images the head-mounted display, the posture information may be, for example, an image indicating a result of imaging the head-mounted display with the imaging device.

また、上記態様において、「位置情報」とは、例えば、仮想空間における仮想点の現在位置を示す情報であってもよいし、仮想空間における仮想点の過去または未来の位置を示す情報であってもよいし、仮想空間における仮想点の経時的な位置の変化の軌跡を示す情報であってもよい。   In the above aspect, the “position information” may be, for example, information indicating a current position of a virtual point in the virtual space, or information indicating a past or future position of the virtual point in the virtual space. Alternatively, the information may be information indicating a locus of a change in a position of a virtual point with time in a virtual space.

また、上記態様において、「オブジェクト」とは、仮想空間内に存在する仮想的な物体であって、形状と仮想空間における存在位置との一方または双方が変化可能な物体であってもよい。具体的には、「オブジェクト」は、例えば、仮想空間に存在する、人物、動物、及び、モンスター等の、キャラクタであってもよいし、仮想空間に存在する乗り物等の人工物であってもよい。   Further, in the above aspect, the “object” is a virtual object existing in the virtual space, and may be an object that can change one or both of the shape and the existing position in the virtual space. Specifically, the “object” may be, for example, a character such as a person, an animal, and a monster existing in a virtual space, or an artificial object such as a vehicle existing in a virtual space. Good.

[付記2]
本発明の他の態様に係る情報処理装置のプログラムは、プロセッサを具備する情報処理装置のプログラムであって、前記プロセッサを、仮想空間を仮想カメラで撮像した画像であって、両眼視差を利用した立体視画像を、ヘッドマウントディスプレイに設けられた表示部に表示させる表示制御部と、前記ヘッドマウントディスプレイの姿勢に関する姿勢情報を取得する取得部と、して機能させ、前記表示制御部は、前記仮想空間における仮想点の位置に関する位置情報に基づいて、前記仮想空間における前記仮想カメラの姿勢を変化させることが可能であり、前記姿勢情報に基づいて、前記仮想空間における前記仮想カメラの位置を変化させることが可能であり、前記仮想点は、前記仮想空間に存在するオブジェクトに基づく位置に設定され、前記仮想空間における前記オブジェクトの位置及び形状のうち少なくとも一方の変化に基づいて、前記仮想点の位置が変化する、ことを特徴とする。
[Appendix 2]
A program for an information processing apparatus according to another aspect of the present invention is a program for an information processing apparatus including a processor, wherein the processor is an image of a virtual space captured by a virtual camera, and uses binocular parallax. The displayed stereoscopic image, a display control unit that causes a display unit provided in a head-mounted display to display, and an acquisition unit that acquires posture information on the posture of the head-mounted display, functioning as the display control unit, It is possible to change the posture of the virtual camera in the virtual space based on position information related to the position of a virtual point in the virtual space, and to change the position of the virtual camera in the virtual space based on the posture information. The virtual point can be changed, and the virtual point is set to a position based on an object existing in the virtual space. Based on the position and the at least one change of shape of the object in the virtual space, the position of the virtual point is changed, characterized in that.

この態様によれば、ヘッドマウントディスプレイを装着したユーザが、ヘッドマウントディスプレイの姿勢を変化させることにより、仮想空間における仮想カメラの位置を変化させることができ、また、表示制御部が、オブジェクトに基づく位置に設定された仮想点の位置に基づいて、仮想空間における仮想カメラの姿勢を変化させることができる。すなわち、この態様において、表示制御部は、ヘッドマウントディスプレイの姿勢の変化と、オブジェクトの位置または形状の変化と、に基づいて、仮想空間における仮想カメラの位置及び姿勢の双方を変化させることができる。このため、この態様によれば、ヘッドマウントディスプレイを装着したユーザが、例えば、ヘッドマウントディスプレイの姿勢を変化させることにより、仮想カメラの光軸方向がオブジェクトと交差するように、ヘッドマウントディスプレイの位置を制御することで、ヘッドマウントディスプレイの表示部に、オブジェクトを継続的に表示させることが可能となる。
また、この態様によれば、実空間においてヘッドマウントディスプレイの位置を変化させることなく、仮想空間における仮想カメラの位置及び姿勢の双方を変化させることができる。このため、この態様によれば、例えば、実空間においてヘッドマウントディスプレイの位置を変化させることで、仮想空間における仮想カメラの位置または姿勢を変化させる場合と比較して、ヘッドマウントディスプレイを装着したユーザが、容易に、仮想空間における仮想カメラを操作することが可能となる。
また、この態様によれば、表示制御部が、オブジェクトの位置に基づいて仮想カメラの姿勢を変化させつつ、ヘッドマウントディスプレイの姿勢に基づいて仮想カメラの位置を変化させる。このため、この態様によれば、ヘッドマウントディスプレイの表示部にオブジェクトを継続的に表示させることと、ヘッドマウントディスプレイを装着したユーザに対して、仮想カメラの位置の操作に係る自由度を提供することとの、両立が可能となる。
According to this aspect, the user wearing the head-mounted display can change the position of the virtual camera in the virtual space by changing the attitude of the head-mounted display, and the display control unit can control the display based on the object. The posture of the virtual camera in the virtual space can be changed based on the position of the virtual point set as the position. That is, in this aspect, the display control unit can change both the position and the posture of the virtual camera in the virtual space based on the change in the posture of the head mounted display and the change in the position or shape of the object. . Therefore, according to this aspect, the user wearing the head-mounted display can change the position of the head-mounted display such that the optical axis direction of the virtual camera intersects the object by, for example, changing the attitude of the head-mounted display. , The object can be continuously displayed on the display unit of the head mounted display.
According to this aspect, both the position and the attitude of the virtual camera in the virtual space can be changed without changing the position of the head mounted display in the real space. Therefore, according to this aspect, for example, by changing the position of the head mounted display in the real space, the user wearing the head mounted display is compared with the case of changing the position or the posture of the virtual camera in the virtual space. However, it is possible to easily operate the virtual camera in the virtual space.
Further, according to this aspect, the display control unit changes the position of the virtual camera based on the position of the head-mounted display while changing the position of the virtual camera based on the position of the object. For this reason, according to this aspect, it is possible to continuously display the object on the display unit of the head mounted display, and to provide a user wearing the head mounted display with a degree of freedom in operating the position of the virtual camera. It is possible to achieve both.

[付記3]
本発明の他の態様に係る情報処理装置のプログラムは、付記1または2に記載の情報処理装置のプログラムであって、前記仮想点は、前記オブジェクトの特定の部分に設定される、ことを特徴とする。
[Appendix 3]
A program for an information processing apparatus according to another aspect of the present invention is the program for an information processing apparatus according to Supplementary Note 1 or 2, wherein the virtual point is set in a specific portion of the object. And

この態様によれば、表示制御部が、オブジェクトの特定の部分に設定された仮想点の位置に基づいて、仮想空間における仮想カメラの位置または姿勢を変化させることができる。このため、この態様によれば、ヘッドマウントディスプレイの表示部に、オブジェクトを継続的に表示させることが可能となる。   According to this aspect, the display control unit can change the position or orientation of the virtual camera in the virtual space based on the position of the virtual point set at the specific part of the object. Therefore, according to this aspect, it is possible to continuously display the object on the display unit of the head mounted display.

[付記4]
本発明の他の態様に係る情報処理装置のプログラムは、付記1または2に記載の情報処理装置のプログラムであって、前記仮想点は、前記オブジェクトが位置及び形状の少なくとも一方を変化させるモーションを実行する場合に、前記オブジェクトのうち、前記モーションに応じた部分に設定される、ことを特徴とする。
[Appendix 4]
The program for an information processing apparatus according to another aspect of the present invention is the program for the information processing apparatus according to Supplementary Note 1 or 2, wherein the virtual point is a program that performs a motion in which the object changes at least one of a position and a shape. When the object is executed, the object is set to a part corresponding to the motion.

この態様によれば、表示制御部が、オブジェクトのうちモーションに応じた部分に設定された仮想点の位置に基づいて、仮想空間における仮想カメラの位置または姿勢を変化させることができる。このため、この態様によれば、ヘッドマウントディスプレイの表示部に、オブジェクトのうちモーションに応じた部分を含む領域を継続的に表示させることが可能となる。   According to this aspect, the display control unit can change the position or orientation of the virtual camera in the virtual space based on the position of the virtual point set in a portion corresponding to the motion in the object. Therefore, according to this aspect, it is possible to continuously display a region including a portion corresponding to the motion among the objects on the display unit of the head mounted display.

なお、上記態様において、「モーションに応じた部分」とは、モーションに応じて変化する部分であってもよい。具体的には、オブジェクトが第1の部分と第2の部分とを有する場合、モーションが第1の進行段階にあるときには、仮想点がオブジェクトの第1の部分に設定され、モーションが第2の進行段階にあるときには、仮想点がオブジェクトの第2の部分に設定される等、モーションの進行段階に応じて、仮想点が設定されるオブジェクトの部分が変化してもよい。   In the above aspect, the “portion corresponding to the motion” may be a portion that changes according to the motion. Specifically, if the object has a first part and a second part, a virtual point is set on the first part of the object when the motion is in the first progression stage, and the motion is in the second part. When in the advancing stage, the portion of the object at which the virtual point is set may change according to the advancing stage of the motion, such as setting the virtual point to the second portion of the object.

[付記5]
本発明の他の態様に係る情報処理装置のプログラムは、付記1または2に記載の情報処理装置のプログラムであって、前記オブジェクトは、前記仮想空間における位置及び形状の少なくとも一方を変化させる複数種類のモーションを実行可能であり、前記仮想点は、前記オブジェクトのうち、前記オブジェクトの実行しているモーションの種類に応じた部分に設定される、ことを特徴とする。
[Appendix 5]
The program for an information processing device according to another aspect of the present invention is the program for an information processing device according to Supplementary Note 1 or 2, wherein the object has a plurality of types that change at least one of a position and a shape in the virtual space. , And the virtual point is set in a portion of the object according to the type of motion executed by the object.

この態様によれば、表示制御部が、オブジェクトのうちモーションの種類に応じた部分に設定された仮想点の位置に基づいて、仮想空間における仮想カメラの位置または姿勢を変化させることができる。このため、この態様によれば、ヘッドマウントディスプレイの表示部に、オブジェクトのうちモーションの種類に応じた部分を含む領域を継続的に表示させることが可能となる。   According to this aspect, the display control unit can change the position or orientation of the virtual camera in the virtual space based on the position of the virtual point set in a portion of the object corresponding to the type of motion. Therefore, according to this aspect, it is possible to continuously display a region including a portion corresponding to the type of motion among the objects on the display unit of the head mounted display.

なお、上記態様において、「モーションの種類」とは、例えば、座る、立つ、歩く、及び、走る等の、個別のモーションを区別するための情報であってもよい。また、上記態様において、「モーションの種類」とは、オブジェクトが実行可能な複数のモーションを、所定の基準により分類した結果を示す情報であってもよい。
ここで、モーションを分類するための「所定の基準」とは、モーションの内容に基づく基準であってもよい。具体的には、「所定の基準」とは、例えば、オブジェクトが直立した状態で行われるモーションであるか否か、オブジェクトがモーションを実行する場合にオブジェクトの位置の変化量が所定の変化量以上となる位置変化の大きいモーションであるか否か、及び、オブジェクトがモーションを実行する場合にオブジェクトの形状の変化量が所定の変化量以上となる姿勢変化の大きいモーションであるか否か、等の一部または全部を含むものであってもよい。
また、モーションを分類するための「所定の基準」とは、モーションを実行可能なオブジェクトの種類に基づく基準であってもよい。具体的には、「所定の基準」とは、例えば、人間により実行可能なモーションであるか否か、人間以外のモンスター等により実行可能なモーションであるか否か、及び、仮想的な生物以外の人工物により実行可能なモーションであるか否か、等の一部または全部を含むものであってもよい。
In the above aspect, the “motion type” may be, for example, information for distinguishing individual motions such as sitting, standing, walking, and running. In the above aspect, the “motion type” may be information indicating a result of classifying a plurality of motions that can be executed by the object based on a predetermined criterion.
Here, the “predetermined criterion” for classifying the motion may be a criterion based on the content of the motion. Specifically, the “predetermined reference” refers to, for example, whether or not the motion is performed while the object is in an upright state, and when the object executes the motion, the amount of change in the position of the object is equal to or more than the predetermined amount of change. Whether the motion is a motion with a large change in position, and whether the motion is a motion with a large posture change in which the amount of change in the shape of the object is greater than or equal to a predetermined amount of change when the object executes the motion. Some or all may be included.
Further, the “predetermined criterion” for classifying a motion may be a criterion based on a type of an object capable of executing a motion. Specifically, the “predetermined criterion” is, for example, whether or not the motion can be executed by a human, whether or not the motion can be executed by a monster or the like other than a human, and whether or not the motion is a virtual creature. May or may not include a part or all of whether or not the motion can be executed by the artificial object.

[付記6]
本発明の他の態様に係る情報処理装置のプログラムは、付記1に記載の情報処理装置のプログラムであって、前記表示制御部は、第1の単位期間における、前記仮想カメラの前記仮想空間における位置の変化量と、前記第1の単位期間に後続する第2の単位期間における、前記仮想カメラの前記仮想空間における位置の変化量と、の差分値が、第1閾値以下となるように、前記仮想空間における前記仮想カメラの位置を変化させる、ことを特徴とする。
[Appendix 6]
The program of the information processing device according to another aspect of the present invention is the program of the information processing device according to supplementary note 1, wherein the display control unit is configured to control the virtual camera in the virtual space in a first unit period. A difference value between a position change amount and a position change amount of the virtual camera in the virtual space in a second unit period subsequent to the first unit period is equal to or less than a first threshold. Changing a position of the virtual camera in the virtual space.

この態様によれば、表示制御部は、例えば、第1の単位期間と第2の単位期間との間で、仮想カメラの移動速度を滑らかに変化させることができる。これにより、この態様によれば、例えば、第1の単位期間と第2の単位期間との間で、仮想カメラの移動速度が急激に変化する場合と比較して、ヘッドマウントディスプレイを装着したユーザが違和感を感じる可能性を低減することが可能となる。   According to this aspect, for example, the display control unit can smoothly change the moving speed of the virtual camera between the first unit period and the second unit period. Thus, according to this aspect, for example, the user wearing the head mounted display is compared with the case where the moving speed of the virtual camera changes rapidly between the first unit period and the second unit period. Can be less likely to feel uncomfortable.

なお、上記態様において、「第1の単位期間」及び「第2の単位期間」とは、同一の時間長を有する期間であってもよい。例えば、「第1の単位期間」及び「第2の単位期間」は、表示部に1枚の画像を表示するために必要な、1つのフレーム期間であってもよいし、表示部に複数の画像を表示するために必要な、複数のフレーム期間であってもよい。   In the above aspect, the “first unit period” and the “second unit period” may be periods having the same time length. For example, the “first unit period” and the “second unit period” may be one frame period necessary for displaying one image on the display unit, or a plurality of There may be a plurality of frame periods required to display an image.

[付記7]
本発明の他の態様に係る情報処理装置のプログラムは、付記2に記載の情報処理装置のプログラムであって、前記表示制御部は、第1の単位期間における、前記仮想カメラの前記仮想空間における姿勢の変化量と、前記第1の単位期間に後続する第2の単位期間における、前記仮想カメラの前記仮想空間における姿勢の変化量と、の差分値が、第2閾値以下となるように、前記仮想空間における前記仮想カメラの姿勢を変化させる、ことを特徴とする。
[Appendix 7]
The program of the information processing device according to another aspect of the present invention is the program of the information processing device according to Supplementary Note 2, wherein the display control unit is configured to control the virtual camera in the virtual space during a first unit period. A difference value between the amount of change in posture and the amount of change in posture of the virtual camera in the virtual space in a second unit period subsequent to the first unit period is equal to or less than a second threshold value. Changing a posture of the virtual camera in the virtual space.

この態様によれば、表示制御部は、例えば、第1の単位期間と第2の単位期間との間で、仮想カメラの姿勢の変化速度を滑らかに変化させることができる。これにより、この態様によれば、例えば、第1の単位期間と第2の単位期間との間で、仮想カメラの姿勢の変化速度が急激に変化する場合と比較して、ヘッドマウントディスプレイを装着したユーザが違和感を感じる可能性を低減することが可能となる。   According to this aspect, for example, the display control unit can smoothly change the changing speed of the attitude of the virtual camera between the first unit period and the second unit period. Thus, according to this aspect, for example, the head-mounted display is mounted compared to the case where the change speed of the attitude of the virtual camera changes rapidly between the first unit period and the second unit period. It is possible to reduce the possibility that a user who feels strange will feel uncomfortable.

[付記8]
本発明の他の態様に係る情報処理装置のプログラムは、付記6または7に記載の情報処理装置のプログラムであって、前記第1の単位期間は、前記オブジェクトが位置及び形状の少なくとも一方を変化させる、第1のモーションを実行する期間であり、前記第2の単位期間は、前記オブジェクトが位置及び形状の少なくとも一方を、前記第1のモーションとは異なる態様で変化させる、第2のモーションを実行する期間である、ことを特徴とする。
[Appendix 8]
The program of the information processing apparatus according to another aspect of the present invention is the program of the information processing apparatus according to Supplementary Note 6 or 7, wherein the object changes at least one of a position and a shape during the first unit period. The second unit period is a period in which the first motion is executed, and the second unit period is a period in which the object changes at least one of a position and a shape in a different manner from the first motion. A period of execution.

この態様によれば、表示制御部は、例えば、オブジェクトのモーションを切り替える際に、仮想カメラの移動速度または姿勢の変化速度を滑らかに変化させることができる。これにより、この態様によれば、例えば、オブジェクトがモーションを切り替える際に、仮想カメラの移動速度または姿勢の変化速度が急激に変化する場合と比較して、ヘッドマウントディスプレイを装着したユーザが違和感を感じる可能性を低減することが可能となる。   According to this aspect, for example, when switching the motion of the object, the display control unit can smoothly change the moving speed or the posture changing speed of the virtual camera. Thus, according to this aspect, for example, when the object switches the motion, the user wearing the head mounted display feels uncomfortable compared with the case where the moving speed or the changing speed of the posture of the virtual camera changes rapidly. The possibility of feeling can be reduced.

[付記9]
本発明の他の態様に係る情報処理装置のプログラムは、付記2に記載の情報処理装置のプログラムであって、前記表示制御部は、前記仮想空間における前記仮想カメラの位置が、前記仮想空間及び前記仮想点の少なくとも一方に基づいて定められる特定領域内に位置するように、前記仮想空間における前記仮想カメラの位置を変化させる、ことを特徴とする。
[Appendix 9]
The program of the information processing device according to another aspect of the present invention is the program of the information processing device according to Supplementary Note 2, wherein the display control unit is configured such that the position of the virtual camera in the virtual space is the virtual space and the virtual space. The position of the virtual camera in the virtual space is changed so as to be located in a specific area determined based on at least one of the virtual points.

この態様によれば、表示制御部は、仮想カメラが特定領域内に位置するように、仮想空間における仮想カメラの位置を設定する。このため、この態様によれば、例えば、仮想カメラによるオブジェクトの撮像が仮想空間の構成要素により妨げられたり、または、仮想カメラがオブジェクトから所定の距離より離間してオブジェクトの撮像が困難になったりすることを、防止することが可能となる。   According to this aspect, the display control unit sets the position of the virtual camera in the virtual space such that the virtual camera is located within the specific area. Therefore, according to this aspect, for example, the imaging of the object by the virtual camera is hindered by a component of the virtual space, or the imaging of the object becomes difficult because the virtual camera is separated from the object by a predetermined distance. Can be prevented.

なお、上記態様において、「特定領域」とは、仮想空間のうち、オブジェクトが存在する領域以外の領域であってもよいし、仮想空間のうち、仮想空間を構成する建物、地面、及び、森林、山岳等の環境構成物が存在する領域以外の領域であってもよい。この態様において、「特定領域」とは、仮想点からの距離が所定の距離以下となる領域であってもよい。   In the above aspect, the “specific region” may be a region other than the region where the object is present in the virtual space, or a building, a ground, and a forest constituting the virtual space in the virtual space. Alternatively, the area may be an area other than the area where environmental components such as mountains exist. In this aspect, the “specific area” may be an area whose distance from the virtual point is equal to or less than a predetermined distance.

[付記10]
本発明の他の態様に係る情報処理装置のプログラムは、付記1乃至9に記載の情報処理装置のプログラムであって、前記表示制御部は、前記ヘッドマウントディスプレイが所定の姿勢変化をした場合に、前記仮想カメラによる前記仮想空間の撮像範囲を変化させる、ことを特徴とする。
[Appendix 10]
The program for an information processing apparatus according to another aspect of the present invention is the program for an information processing apparatus according to any one of Supplementary Notes 1 to 9, wherein the display control unit is configured to perform a predetermined posture change of the head mounted display. And changing an imaging range of the virtual space by the virtual camera.

この態様によれば、表示制御部は、ヘッドマウントディスプレイの表示部に対して、オブジェクトを、ユーザの所望の大きさで表示させることが可能となる。   According to this aspect, the display control unit can cause the display unit of the head mounted display to display the object in a size desired by the user.

[付記11]
本発明の一態様に係る情報処理装置は、仮想空間を仮想カメラで撮像した画像であって、両眼視差を利用した立体視画像を、ヘッドマウントディスプレイに設けられた表示部に表示させる表示制御部と、前記ヘッドマウントディスプレイの姿勢に関する姿勢情報を取得する取得部と、を備え、前記表示制御部は、前記仮想空間における仮想点の位置に関する位置情報に基づいて、前記仮想空間における前記仮想カメラの位置を変化させることが可能であり、前記姿勢情報に基づいて、前記仮想空間における前記仮想カメラの姿勢を変化させることが可能であり、前記仮想点は、前記仮想空間に存在するオブジェクトに基づく位置に設定され、前記仮想空間における前記オブジェクトの位置及び形状のうち少なくとも一方の変化に基づいて、前記仮想点の位置が変化する、ことを特徴とする。
[Appendix 11]
An information processing device according to one embodiment of the present invention is a display control that displays a stereoscopic image using a binocular parallax, which is an image obtained by capturing a virtual space with a virtual camera, on a display unit provided in a head-mounted display. Unit, and an acquisition unit for acquiring posture information on the posture of the head mounted display, wherein the display control unit is configured to control the virtual camera in the virtual space based on position information on a position of a virtual point in the virtual space. Can be changed, the posture of the virtual camera in the virtual space can be changed based on the posture information, and the virtual point is based on an object existing in the virtual space. Position, and based on at least one of a change in a position and a shape of the object in the virtual space, The position of the virtual point is changed, characterized in that.

この態様によれば、表示制御部は、ヘッドマウントディスプレイの姿勢の変化と、オブジェクトの位置または形状の変化と、に基づいて、仮想空間における仮想カメラの位置及び姿勢の双方を変化させることができる。このため、この態様によれば、ヘッドマウントディスプレイの表示部に、オブジェクトを継続的に表示させることが可能となる。   According to this aspect, the display control unit can change both the position and the posture of the virtual camera in the virtual space based on the change in the posture of the head mounted display and the change in the position or shape of the object. . Therefore, according to this aspect, it is possible to continuously display the object on the display unit of the head mounted display.

[付記12]
本発明の他の態様に係る情報処理装置は、仮想空間を仮想カメラで撮像した画像であって、両眼視差を利用した立体視画像を、ヘッドマウントディスプレイに設けられた表示部に表示させる表示制御部と、前記ヘッドマウントディスプレイの姿勢に関する姿勢情報を取得する取得部と、を備え、前記表示制御部は、前記仮想空間における仮想点の位置に関する位置情報に基づいて、前記仮想空間における前記仮想カメラの姿勢を変化させることが可能であり、前記姿勢情報に基づいて、前記仮想空間における前記仮想カメラの位置を変化させることが可能であり、前記仮想点は、前記仮想空間に存在するオブジェクトに基づく位置に設定され、前記仮想空間における前記オブジェクトの位置及び形状のうち少なくとも一方の変化に基づいて、前記仮想点の位置が変化する、ことを特徴とする。
[Supplementary Note 12]
An information processing apparatus according to another aspect of the present invention is a display that displays an image obtained by capturing a virtual space with a virtual camera and that displays a stereoscopic image using binocular parallax on a display unit provided on a head-mounted display. A control unit, and an acquisition unit configured to acquire posture information on a posture of the head-mounted display, wherein the display control unit is configured to control the virtual position in the virtual space based on position information on a position of a virtual point in the virtual space. It is possible to change the posture of the camera, and based on the posture information, it is possible to change the position of the virtual camera in the virtual space, and the virtual point is set to an object existing in the virtual space. Based on a change in at least one of the position and the shape of the object in the virtual space, Serial position of the virtual point is changed, characterized in that.

この態様によれば、表示制御部は、ヘッドマウントディスプレイの姿勢の変化と、オブジェクトの位置または形状の変化と、に基づいて、仮想空間における仮想カメラの位置及び姿勢の双方を変化させることができる。このため、この態様によれば、ヘッドマウントディスプレイの表示部に、オブジェクトを継続的に表示させることが可能となる。   According to this aspect, the display control unit can change both the position and the posture of the virtual camera in the virtual space based on the change in the posture of the head mounted display and the change in the position or shape of the object. . Therefore, according to this aspect, it is possible to continuously display the object on the display unit of the head mounted display.

[付記13]
本発明の一態様に係るヘッドマウントディスプレイは、表示部と、情報処理装置と、を具備するヘッドマウントディスプレイであって、前記情報処理装置は、仮想空間を仮想カメラで撮像した画像であって、両眼視差を利用した立体視画像を、前記表示部に表示させる表示制御部と、前記ヘッドマウントディスプレイの姿勢に関する姿勢情報を取得する取得部と、を備え、前記表示制御部は、前記仮想空間における仮想点の位置に関する位置情報に基づいて、前記仮想空間における前記仮想カメラの位置を変化させることが可能であり、前記姿勢情報に基づいて、前記仮想空間における前記仮想カメラの姿勢を変化させることが可能であり、前記仮想点は、前記仮想空間に存在するオブジェクトに基づく位置に設定され、前記仮想空間における前記オブジェクトの位置及び形状のうち少なくとも一方の変化に基づいて、前記仮想点の位置が変化する、ことを特徴とする。
[Appendix 13]
A head mounted display according to one embodiment of the present invention is a head mounted display including a display unit and an information processing device, wherein the information processing device is an image obtained by capturing a virtual space with a virtual camera, A display control unit that displays a stereoscopic image using binocular parallax on the display unit, and an acquisition unit that acquires posture information on the posture of the head mounted display, wherein the display control unit is It is possible to change the position of the virtual camera in the virtual space based on the position information on the position of the virtual point in, and to change the posture of the virtual camera in the virtual space based on the posture information The virtual point is set at a position based on an object existing in the virtual space, and is set in the virtual space. Based on at least one of the change of the position and shape of the object, the position of the virtual point is changed, characterized in that.

この態様によれば、表示制御部は、ヘッドマウントディスプレイの姿勢の変化と、オブジェクトの位置または形状の変化と、に基づいて、仮想空間における仮想カメラの位置及び姿勢の双方を変化させることができる。このため、この態様によれば、ヘッドマウントディスプレイの表示部に、オブジェクトを継続的に表示させることが可能となる。   According to this aspect, the display control unit can change both the position and the posture of the virtual camera in the virtual space based on the change in the posture of the head mounted display and the change in the position or shape of the object. . Therefore, according to this aspect, it is possible to continuously display the object on the display unit of the head mounted display.

[付記14]
本発明の他の態様に係るヘッドマウントディスプレイは、表示部と、情報処理装置と、を具備するヘッドマウントディスプレイであって、前記情報処理装置は、仮想空間を仮想カメラで撮像した画像であって、両眼視差を利用した立体視画像を、前記表示部に表示させる表示制御部と、前記ヘッドマウントディスプレイの姿勢に関する姿勢情報を取得する取得部と、を備え、前記表示制御部は、前記仮想空間における仮想点の位置に関する位置情報に基づいて、前記仮想空間における前記仮想カメラの姿勢を変化させることが可能であり、前記姿勢情報に基づいて、前記仮想空間における前記仮想カメラの位置を変化させることが可能であり、前記仮想点は、前記仮想空間に存在するオブジェクトに基づく位置に設定され、前記仮想空間における前記オブジェクトの位置及び形状のうち少なくとも一方の変化に基づいて、前記仮想点の位置が変化する、ことを特徴とする。
[Appendix 14]
A head mounted display according to another aspect of the present invention is a head mounted display including a display unit and an information processing device, wherein the information processing device is an image obtained by capturing a virtual space with a virtual camera. A display control unit that displays a stereoscopic image using binocular parallax on the display unit, and an acquisition unit that acquires posture information on the posture of the head-mounted display. It is possible to change the posture of the virtual camera in the virtual space based on position information on the position of a virtual point in space, and to change the position of the virtual camera in the virtual space based on the posture information. The virtual point may be set at a position based on an object existing in the virtual space, and may be set in the virtual space. Wherein based on the position and at least one of the change of the shape of the object that, the position of the virtual point is changed, characterized in that.

この態様によれば、表示制御部は、ヘッドマウントディスプレイの姿勢の変化と、オブジェクトの位置または形状の変化と、に基づいて、仮想空間における仮想カメラの位置及び姿勢の双方を変化させることができる。このため、この態様によれば、ヘッドマウントディスプレイの表示部に、オブジェクトを継続的に表示させることが可能となる。   According to this aspect, the display control unit can change both the position and the posture of the virtual camera in the virtual space based on the change in the posture of the head mounted display and the change in the position or shape of the object. . Therefore, according to this aspect, it is possible to continuously display the object on the display unit of the head mounted display.

[付記15]
本発明の一態様に係る表示システムは、表示部を有するヘッドマウントディスプレイと、情報処理装置と、を具備する表示システムであって、前記情報処理装置は、仮想空間を仮想カメラで撮像した画像であって、両眼視差を利用した立体視画像を、前記表示部に表示させる表示制御部と、前記ヘッドマウントディスプレイの姿勢に関する姿勢情報を取得する取得部と、を備え、前記表示制御部は、前記仮想空間における仮想点の位置に関する位置情報に基づいて、前記仮想空間における前記仮想カメラの位置を変化させることが可能であり、前記姿勢情報に基づいて、前記仮想空間における前記仮想カメラの姿勢を変化させることが可能であり、前記仮想点は、前記仮想空間に存在するオブジェクトに基づく位置に設定され、前記仮想空間における前記オブジェクトの位置及び形状のうち少なくとも一方の変化に基づいて、前記仮想点の位置が変化する、ことを特徴とする。
[Appendix 15]
A display system according to one embodiment of the present invention is a display system including a head-mounted display having a display unit and an information processing device, wherein the information processing device uses an image captured in a virtual camera by a virtual camera. There, a stereoscopic image using binocular parallax, a display control unit that displays on the display unit, and an acquisition unit that acquires posture information related to the posture of the head-mounted display, including, the display control unit, It is possible to change the position of the virtual camera in the virtual space based on position information on the position of a virtual point in the virtual space, and to change the position of the virtual camera in the virtual space based on the position information. The virtual point can be changed, and the virtual point is set to a position based on an object existing in the virtual space. Based on the position and at least one of the change of the shape of the definitive the object, the location of the virtual point is changed, characterized in that.

この態様によれば、表示制御部は、ヘッドマウントディスプレイの姿勢の変化と、オブジェクトの位置または形状の変化と、に基づいて、仮想空間における仮想カメラの位置及び姿勢の双方を変化させることができる。このため、この態様によれば、ヘッドマウントディスプレイの表示部に、オブジェクトを継続的に表示させることが可能となる。   According to this aspect, the display control unit can change both the position and the posture of the virtual camera in the virtual space based on the change in the posture of the head mounted display and the change in the position or shape of the object. . Therefore, according to this aspect, it is possible to continuously display the object on the display unit of the head mounted display.

[付記16]
本発明の他の態様に係る表示システムは、表示部を有するヘッドマウントディスプレイと、情報処理装置と、を具備する表示システムであって、前記情報処理装置は、仮想空間を仮想カメラで撮像した画像であって、両眼視差を利用した立体視画像を、前記表示部に表示させる表示制御部と、前記ヘッドマウントディスプレイの姿勢に関する姿勢情報を取得する取得部と、を備え、前記表示制御部は、前記仮想空間における仮想点の位置に関する位置情報に基づいて、前記仮想空間における前記仮想カメラの姿勢を変化させることが可能であり、前記姿勢情報に基づいて、前記仮想空間における前記仮想カメラの位置を変化させることが可能であり、前記仮想点は、前記仮想空間に存在するオブジェクトに基づく位置に設定され、前記仮想空間における前記オブジェクトの位置及び形状のうち少なくとも一方の変化に基づいて、前記仮想点の位置が変化する、ことを特徴とする。
[Appendix 16]
A display system according to another aspect of the present invention is a display system including a head-mounted display having a display unit and an information processing device, wherein the information processing device is an image obtained by capturing a virtual space with a virtual camera. And a display control unit that displays a stereoscopic image using binocular parallax on the display unit, and an acquisition unit that acquires posture information on the posture of the head-mounted display, and the display control unit includes: It is possible to change the posture of the virtual camera in the virtual space based on position information related to the position of a virtual point in the virtual space, and to change the position of the virtual camera in the virtual space based on the posture information. Can be changed, the virtual point is set to a position based on an object existing in the virtual space, and the virtual sky Based on at least one of the change of the position and shape of the object in the position of the virtual point is changed, characterized in that.

この態様によれば、表示制御部は、ヘッドマウントディスプレイの姿勢の変化と、オブジェクトの位置または形状の変化と、に基づいて、仮想空間における仮想カメラの位置及び姿勢の双方を変化させることができる。このため、この態様によれば、ヘッドマウントディスプレイの表示部に、オブジェクトを継続的に表示させることが可能となる。   According to this aspect, the display control unit can change both the position and the posture of the virtual camera in the virtual space based on the change in the posture of the head mounted display and the change in the position or shape of the object. . Therefore, according to this aspect, it is possible to continuously display the object on the display unit of the head mounted display.

1…ヘッドマウントディスプレイ、10…端末装置、11…制御部、12…表示部、13…操作部、14…姿勢情報生成部、15…記憶部、110…表示制御部、111…モード指定部、112…仮想カメラ制御部、113…キャラクタ制御部、114…表示情報生成部、115…姿勢情報取得部、1000…プロセッサ、1002…角速度センサ。
DESCRIPTION OF SYMBOLS 1 ... Head mounted display, 10 ... Terminal device, 11 ... Control part, 12 ... Display part, 13 ... Operation part, 14 ... Attitude information generation part, 15 ... Storage part, 110 ... Display control part, 111 ... Mode designation part, 112 virtual camera control unit, 113 character control unit, 114 display information generation unit, 115 posture information acquisition unit, 1000 processor, 1002 angular velocity sensor.

Claims (13)

プロセッサを具備する情報処理装置のプログラムであって、
前記プロセッサを、
仮想空間を仮想カメラで撮像した画像であって、両眼視差を利用した立体視画像を、
ヘッドマウントディスプレイに設けられた表示部に表示させる表示制御部と、
前記ヘッドマウントディスプレイの姿勢に関する姿勢情報を取得する取得部と、
して機能させ、
前記表示制御部は、
前記仮想空間における仮想点の位置に関する位置情報に基づいて、
前記仮想空間における前記仮想カメラの位置を変化させることが可能であり、
前記姿勢情報に基づいて、
前記仮想空間における前記仮想カメラの姿勢を変化させることが可能であり、
前記仮想点は、
前記仮想空間に存在するオブジェクトに基づく位置に設定され、
前記仮想空間における前記オブジェクトの位置及び形状のうち少なくとも一方の変化に基づいて、
前記仮想点の位置が変化し、
前記表示制御部は、
第1の単位期間における、
前記仮想カメラの前記仮想空間における位置の変化量と、
前記第1の単位期間に後続する第2の単位期間における、
前記仮想カメラの前記仮想空間における位置の変化量と、の差分値が、
第1閾値以下となるように、
前記仮想空間における前記仮想カメラの位置を変化させる、
ことを特徴とする、情報処理装置のプログラム。
A program for an information processing device having a processor,
The processor,
A stereoscopic image using binocular parallax, which is an image obtained by capturing a virtual space with a virtual camera,
A display control unit for displaying on a display unit provided in the head mounted display,
An acquisition unit that acquires posture information on the posture of the head-mounted display,
Function
The display control unit,
Based on position information on the position of the virtual point in the virtual space,
It is possible to change the position of the virtual camera in the virtual space,
Based on the posture information,
It is possible to change the attitude of the virtual camera in the virtual space,
The virtual point is
Set at a position based on an object present in the virtual space,
Based on at least one of the position and the shape of the object in the virtual space,
The position of the virtual point changes ,
The display control unit,
In the first unit period,
An amount of change in the position of the virtual camera in the virtual space;
In a second unit period following the first unit period,
A difference value between the virtual camera and the amount of change in the position in the virtual space,
So that it is less than or equal to the first threshold
Changing the position of the virtual camera in the virtual space,
A program for an information processing apparatus , characterized in that:
プロセッサを具備する情報処理装置のプログラムであって、
前記プロセッサを、
仮想空間を仮想カメラで撮像した画像であって、両眼視差を利用した立体視画像を、
ヘッドマウントディスプレイに設けられた表示部に表示させる表示制御部と、
前記ヘッドマウントディスプレイの姿勢に関する姿勢情報を取得する取得部と、
して機能させ、
前記表示制御部は、
前記仮想空間における仮想点の位置に関する位置情報に基づいて、
前記仮想空間における前記仮想カメラの姿勢を変化させることが可能であり、
前記姿勢情報に基づいて、
前記仮想空間における前記仮想カメラの位置を変化させることが可能であり、
前記仮想点は、
前記仮想空間に存在するオブジェクトに基づく位置に設定され、
前記仮想空間における前記オブジェクトの位置及び形状のうち少なくとも一方の変化に基づいて、
前記仮想点の位置が変化し、
前記表示制御部は、
第1の単位期間における、
前記仮想カメラの前記仮想空間における姿勢の変化量と、
前記第1の単位期間に後続する第2の単位期間における、
前記仮想カメラの前記仮想空間における姿勢の変化量と、の差分値が、
第2閾値以下となるように、
前記仮想空間における前記仮想カメラの姿勢を変化させる、
ことを特徴とする、情報処理装置のプログラム。
A program for an information processing device having a processor,
The processor,
A stereoscopic image using binocular parallax, which is an image obtained by capturing a virtual space with a virtual camera,
A display control unit for displaying on a display unit provided in the head mounted display,
An acquisition unit that acquires posture information on the posture of the head-mounted display,
Function
The display control unit,
Based on position information on the position of the virtual point in the virtual space,
It is possible to change the attitude of the virtual camera in the virtual space,
Based on the posture information,
It is possible to change the position of the virtual camera in the virtual space,
The virtual point is
Set at a position based on an object present in the virtual space,
Based on at least one of the position and the shape of the object in the virtual space,
The position of the virtual point changes ,
The display control unit,
In the first unit period,
An amount of change in attitude of the virtual camera in the virtual space;
In a second unit period following the first unit period,
A difference value between the amount of change in posture of the virtual camera in the virtual space and
In order to be less than or equal to the second threshold,
Changing the attitude of the virtual camera in the virtual space,
A program for an information processing apparatus, characterized in that :
前記第1の単位期間は、
前記オブジェクトが位置及び形状の少なくとも一方を変化させる、
第1のモーションを実行する期間であり、
前記第2の単位期間は、
前記オブジェクトが位置及び形状の少なくとも一方を、前記第1のモーションとは異なる態様で変化させる、
第2のモーションを実行する期間である、
ことを特徴とする、請求項1または2に記載の情報処理装置のプログラム。
The first unit period is
The object changes at least one of a position and a shape,
A period for executing the first motion,
The second unit period is
The object changes at least one of a position and a shape in a manner different from the first motion;
A period for executing the second motion,
3. The program for an information processing apparatus according to claim 1, wherein
前記仮想点は、
前記オブジェクトの特定の部分に設定される、
ことを特徴とする、請求項1または2に記載の情報処理装置のプログラム。
The virtual point is
Set on a particular part of the object,
3. The program for an information processing apparatus according to claim 1, wherein
前記仮想点は、
前記オブジェクトが位置及び形状の少なくとも一方を変化させるモーションを実行する場合に、
前記オブジェクトのうち、前記モーションに応じた部分に設定される、
ことを特徴とする、請求項1または2に記載の情報処理装置のプログラム。
The virtual point is
When the object performs a motion that changes at least one of a position and a shape,
Of the object, set to a portion corresponding to the motion,
3. The program for an information processing apparatus according to claim 1, wherein
前記オブジェクトは、
前記仮想空間における位置及び形状の少なくとも一方を変化させる複数種類のモーションを実行可能であり、
前記仮想点は、
前記オブジェクトのうち、
前記オブジェクトの実行しているモーションの種類に応じた部分に設定される、
ことを特徴とする、請求項1または2に記載の情報処理装置のプログラム。
The object is
It is possible to execute a plurality of types of motion to change at least one of the position and the shape in the virtual space,
The virtual point is
Of the objects,
Set to a portion according to the type of motion that the object is executing,
3. The program for an information processing apparatus according to claim 1, wherein
前記表示制御部は、
前記ヘッドマウントディスプレイが所定の姿勢変化をした場合に、
前記仮想カメラによる前記仮想空間の撮像範囲を変化させる、
ことを特徴とする、請求項1乃至6のうち何れか1項に記載の情報処理装置のプログラム。
The display control unit,
When the head mounted display changes a predetermined posture,
Changing the imaging range of the virtual space by the virtual camera,
A program for an information processing apparatus according to any one of claims 1 to 6 , characterized in that:
仮想空間を仮想カメラで撮像した画像であって、両眼視差を利用した立体視画像を、
ヘッドマウントディスプレイに設けられた表示部に表示させる表示制御部と、
前記ヘッドマウントディスプレイの姿勢に関する姿勢情報を取得する取得部と、
を備え、
前記表示制御部は、
前記仮想空間における仮想点の位置に関する位置情報に基づいて、
前記仮想空間における前記仮想カメラの位置を変化させることが可能であり、
前記姿勢情報に基づいて、
前記仮想空間における前記仮想カメラの姿勢を変化させることが可能であり、
前記仮想点は、
前記仮想空間に存在するオブジェクトに基づく位置に設定され、
前記仮想空間における前記オブジェクトの位置及び形状のうち少なくとも一方の変化に基づいて、
前記仮想点の位置が変化し、
前記表示制御部は、
第1の単位期間における、
前記仮想カメラの前記仮想空間における位置の変化量と、
前記第1の単位期間に後続する第2の単位期間における、
前記仮想カメラの前記仮想空間における位置の変化量と、の差分値が、
第1閾値以下となるように、
前記仮想空間における前記仮想カメラの位置を変化させる、
ことを特徴とする、情報処理装置。
A stereoscopic image using binocular parallax, which is an image obtained by capturing a virtual space with a virtual camera,
A display control unit for displaying on a display unit provided in the head mounted display,
An acquisition unit that acquires posture information on the posture of the head-mounted display,
With
The display control unit,
Based on position information on the position of the virtual point in the virtual space,
It is possible to change the position of the virtual camera in the virtual space,
Based on the posture information,
It is possible to change the attitude of the virtual camera in the virtual space,
The virtual point is
Set at a position based on an object present in the virtual space,
Based on at least one of the position and the shape of the object in the virtual space,
The position of the virtual point changes ,
The display control unit,
In the first unit period,
An amount of change in the position of the virtual camera in the virtual space;
In a second unit period following the first unit period,
A difference value between the virtual camera and the amount of change in the position in the virtual space,
So that it is less than or equal to the first threshold
Changing the position of the virtual camera in the virtual space,
An information processing apparatus , characterized in that:
仮想空間を仮想カメラで撮像した画像であって、両眼視差を利用した立体視画像を、
ヘッドマウントディスプレイに設けられた表示部に表示させる表示制御部と、
前記ヘッドマウントディスプレイの姿勢に関する姿勢情報を取得する取得部と、
を備え、
前記表示制御部は、
前記仮想空間における仮想点の位置に関する位置情報に基づいて、
前記仮想空間における前記仮想カメラの姿勢を変化させることが可能であり、
前記姿勢情報に基づいて、
前記仮想空間における前記仮想カメラの位置を変化させることが可能であり、
前記仮想点は、
前記仮想空間に存在するオブジェクトに基づく位置に設定され、
前記仮想空間における前記オブジェクトの位置及び形状のうち少なくとも一方の変化に基づいて、
前記仮想点の位置が変化し、
前記表示制御部は、
第1の単位期間における、
前記仮想カメラの前記仮想空間における姿勢の変化量と、
前記第1の単位期間に後続する第2の単位期間における、
前記仮想カメラの前記仮想空間における姿勢の変化量と、の差分値が、
第2閾値以下となるように、
前記仮想空間における前記仮想カメラの姿勢を変化させる、
ことを特徴とする、情報処理装置。
A stereoscopic image using binocular parallax, which is an image obtained by capturing a virtual space with a virtual camera,
A display control unit for displaying on a display unit provided in the head mounted display,
An acquisition unit that acquires posture information on the posture of the head-mounted display,
With
The display control unit,
Based on position information on the position of the virtual point in the virtual space,
It is possible to change the attitude of the virtual camera in the virtual space,
Based on the posture information,
It is possible to change the position of the virtual camera in the virtual space,
The virtual point is
Set at a position based on an object present in the virtual space,
Based on at least one of the position and the shape of the object in the virtual space,
The position of the virtual point changes ,
The display control unit,
In the first unit period,
An amount of change in attitude of the virtual camera in the virtual space;
In a second unit period following the first unit period,
A difference value between the amount of change in posture of the virtual camera in the virtual space and
In order to be less than or equal to the second threshold,
Changing the attitude of the virtual camera in the virtual space,
An information processing apparatus , characterized in that:
表示部と、情報処理装置と、を具備するヘッドマウントディスプレイであって、
前記情報処理装置は、
仮想空間を仮想カメラで撮像した画像であって、両眼視差を利用した立体視画像を、
前記表示部に表示させる表示制御部と、
前記ヘッドマウントディスプレイの姿勢に関する姿勢情報を取得する取得部と、
を備え、
前記表示制御部は、
前記仮想空間における仮想点の位置に関する位置情報に基づいて、
前記仮想空間における前記仮想カメラの位置を変化させることが可能であり、
前記姿勢情報に基づいて、
前記仮想空間における前記仮想カメラの姿勢を変化させることが可能であり、
前記仮想点は、
前記仮想空間に存在するオブジェクトに基づく位置に設定され、
前記仮想空間における前記オブジェクトの位置及び形状のうち少なくとも一方の変化に基づいて、
前記仮想点の位置が変化し、
前記表示制御部は、
第1の単位期間における、
前記仮想カメラの前記仮想空間における位置の変化量と、
前記第1の単位期間に後続する第2の単位期間における、
前記仮想カメラの前記仮想空間における位置の変化量と、の差分値が、
第1閾値以下となるように、
前記仮想空間における前記仮想カメラの位置を変化させる、
ことを特徴とする、ヘッドマウントディプレイ。
A head-mounted display including a display unit and an information processing device,
The information processing device,
A stereoscopic image using binocular parallax, which is an image obtained by capturing a virtual space with a virtual camera,
A display control unit to be displayed on the display unit,
An acquisition unit that acquires posture information on the posture of the head-mounted display,
With
The display control unit,
Based on position information on the position of the virtual point in the virtual space,
It is possible to change the position of the virtual camera in the virtual space,
Based on the posture information,
It is possible to change the attitude of the virtual camera in the virtual space,
The virtual point is
Set at a position based on an object present in the virtual space,
Based on at least one of the position and the shape of the object in the virtual space,
The position of the virtual point changes ,
The display control unit,
In the first unit period,
An amount of change in the position of the virtual camera in the virtual space;
In a second unit period following the first unit period,
A difference value between the virtual camera and the amount of change in the position in the virtual space,
So that it is less than or equal to the first threshold
Changing the position of the virtual camera in the virtual space,
A head-mounted display , characterized in that:
表示部と、情報処理装置と、を具備するヘッドマウントディスプレイであって、
前記情報処理装置は、
仮想空間を仮想カメラで撮像した画像であって、両眼視差を利用した立体視画像を、
前記表示部に表示させる表示制御部と、
前記ヘッドマウントディスプレイの姿勢に関する姿勢情報を取得する取得部と、
を備え、
前記表示制御部は、
前記仮想空間における仮想点の位置に関する位置情報に基づいて、
前記仮想空間における前記仮想カメラの姿勢を変化させることが可能であり、
前記姿勢情報に基づいて、
前記仮想空間における前記仮想カメラの位置を変化させることが可能であり、
前記仮想点は、
前記仮想空間に存在するオブジェクトに基づく位置に設定され、
前記仮想空間における前記オブジェクトの位置及び形状のうち少なくとも一方の変化に基づいて、
前記仮想点の位置が変化し、
前記表示制御部は、
第1の単位期間における、
前記仮想カメラの前記仮想空間における姿勢の変化量と、
前記第1の単位期間に後続する第2の単位期間における、
前記仮想カメラの前記仮想空間における姿勢の変化量と、の差分値が、
第2閾値以下となるように、
前記仮想空間における前記仮想カメラの姿勢を変化させる、
ことを特徴とする、ヘッドマウントディプレイ。
A head-mounted display including a display unit and an information processing device,
The information processing device,
A stereoscopic image using binocular parallax, which is an image obtained by capturing a virtual space with a virtual camera,
A display control unit to be displayed on the display unit,
An acquisition unit that acquires posture information on the posture of the head-mounted display,
With
The display control unit,
Based on position information on the position of the virtual point in the virtual space,
It is possible to change the attitude of the virtual camera in the virtual space,
Based on the posture information,
It is possible to change the position of the virtual camera in the virtual space,
The virtual point is
Set at a position based on an object present in the virtual space,
Based on at least one of the position and the shape of the object in the virtual space,
The position of the virtual point changes ,
The display control unit,
In the first unit period,
An amount of change in attitude of the virtual camera in the virtual space;
In a second unit period following the first unit period,
A difference value between the amount of change in posture of the virtual camera in the virtual space and
In order to be less than or equal to the second threshold,
Changing the attitude of the virtual camera in the virtual space,
A head-mounted display , characterized in that:
表示部を有するヘッドマウントディスプレイと、情報処理装置と、を具備する表示システムであって、
前記情報処理装置は、
仮想空間を仮想カメラで撮像した画像であって、両眼視差を利用した立体視画像を、
前記表示部に表示させる表示制御部と、
前記ヘッドマウントディスプレイの姿勢に関する姿勢情報を取得する取得部と、
を備え、
前記表示制御部は、
前記仮想空間における仮想点の位置に関する位置情報に基づいて、
前記仮想空間における前記仮想カメラの位置を変化させることが可能であり、
前記姿勢情報に基づいて、
前記仮想空間における前記仮想カメラの姿勢を変化させることが可能であり、
前記仮想点は、
前記仮想空間に存在するオブジェクトに基づく位置に設定され、
前記仮想空間における前記オブジェクトの位置及び形状のうち少なくとも一方の変化に基づいて、
前記仮想点の位置が変化し、
前記表示制御部は、
第1の単位期間における、
前記仮想カメラの前記仮想空間における位置の変化量と、
前記第1の単位期間に後続する第2の単位期間における、
前記仮想カメラの前記仮想空間における位置の変化量と、の差分値が、
第1閾値以下となるように、
前記仮想空間における前記仮想カメラの位置を変化させる、
ことを特徴とする、表示システム。
A head-mounted display having a display unit, and an information processing device, a display system comprising:
The information processing device,
A stereoscopic image using binocular parallax, which is an image obtained by capturing a virtual space with a virtual camera,
A display control unit to be displayed on the display unit,
An acquisition unit that acquires posture information on the posture of the head-mounted display,
With
The display control unit,
Based on position information on the position of the virtual point in the virtual space,
It is possible to change the position of the virtual camera in the virtual space,
Based on the posture information,
It is possible to change the attitude of the virtual camera in the virtual space,
The virtual point is
Set at a position based on an object present in the virtual space,
Based on at least one of the position and the shape of the object in the virtual space,
The position of the virtual point changes,
The display control unit,
In the first unit period,
An amount of change in the position of the virtual camera in the virtual space;
In a second unit period following the first unit period,
A difference value between the virtual camera and the amount of change in the position in the virtual space,
So that it is less than or equal to the first threshold
Changing the position of the virtual camera in the virtual space,
A display system , characterized in that:
表示部を有するヘッドマウントディスプレイと、情報処理装置と、を具備する表示システムであって、
前記情報処理装置は、
仮想空間を仮想カメラで撮像した画像であって、両眼視差を利用した立体視画像を、
前記表示部に表示させる表示制御部と、
前記ヘッドマウントディスプレイの姿勢に関する姿勢情報を取得する取得部と、
を備え、
前記表示制御部は、
前記仮想空間における仮想点の位置に関する位置情報に基づいて、
前記仮想空間における前記仮想カメラの姿勢を変化させることが可能であり、
前記姿勢情報に基づいて、
前記仮想空間における前記仮想カメラの位置を変化させることが可能であり、
前記仮想点は、
前記仮想空間に存在するオブジェクトに基づく位置に設定され、
前記仮想空間における前記オブジェクトの位置及び形状のうち少なくとも一方の変化に基づいて、
前記仮想点の位置が変化し、
前記表示制御部は、
第1の単位期間における、
前記仮想カメラの前記仮想空間における姿勢の変化量と、
前記第1の単位期間に後続する第2の単位期間における、
前記仮想カメラの前記仮想空間における姿勢の変化量と、の差分値が、
第2閾値以下となるように、
前記仮想空間における前記仮想カメラの姿勢を変化させる、
ことを特徴とする、表示システム。
A head-mounted display having a display unit, and an information processing device, a display system comprising:
The information processing device,
A stereoscopic image using binocular parallax, which is an image obtained by capturing a virtual space with a virtual camera,
A display control unit to be displayed on the display unit,
An acquisition unit that acquires posture information on the posture of the head-mounted display,
With
The display control unit,
Based on position information on the position of the virtual point in the virtual space,
It is possible to change the attitude of the virtual camera in the virtual space,
Based on the posture information,
It is possible to change the position of the virtual camera in the virtual space,
The virtual point is
Set at a position based on an object present in the virtual space,
Based on at least one of the position and the shape of the object in the virtual space,
The position of the virtual point changes ,
The display control unit,
In the first unit period,
An amount of change in attitude of the virtual camera in the virtual space;
In a second unit period following the first unit period,
A difference value between the amount of change in posture of the virtual camera in the virtual space and
In order to be less than or equal to the second threshold,
Changing the attitude of the virtual camera in the virtual space,
A display system , characterized in that:
JP2018011423A 2018-01-26 2018-01-26 Information processing apparatus, information processing apparatus program, head mounted display, and display system Active JP6675615B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018011423A JP6675615B2 (en) 2018-01-26 2018-01-26 Information processing apparatus, information processing apparatus program, head mounted display, and display system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018011423A JP6675615B2 (en) 2018-01-26 2018-01-26 Information processing apparatus, information processing apparatus program, head mounted display, and display system

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020030567A Division JP7043711B2 (en) 2020-02-26 2020-02-26 Information processing equipment, information processing equipment programs, head-mounted displays, and display systems

Publications (2)

Publication Number Publication Date
JP2019128875A JP2019128875A (en) 2019-08-01
JP6675615B2 true JP6675615B2 (en) 2020-04-01

Family

ID=67473148

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018011423A Active JP6675615B2 (en) 2018-01-26 2018-01-26 Information processing apparatus, information processing apparatus program, head mounted display, and display system

Country Status (1)

Country Link
JP (1) JP6675615B2 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009237680A (en) * 2008-03-26 2009-10-15 Namco Bandai Games Inc Program, information storage medium, and image generation system
JP6395687B2 (en) * 2015-10-16 2018-09-26 株式会社カプコン Video generation method, video generation program, and video generation apparatus
JP2017097854A (en) * 2016-09-29 2017-06-01 株式会社スクウェア・エニックス Program, recording medium, content providing device, and control method
JP2017142783A (en) * 2017-01-04 2017-08-17 株式会社コロプラ Visual field area adjustment method and program in virtual space

Also Published As

Publication number Publication date
JP2019128875A (en) 2019-08-01

Similar Documents

Publication Publication Date Title
US10013812B2 (en) Method and system for controlling a head-mounted display system
US9599821B2 (en) Virtual reality system allowing immersion in virtual space to consist with actual movement in actual space
US10223064B2 (en) Method for providing virtual space, program and apparatus therefor
JP6087453B1 (en) Method and program for providing virtual space
JP6229089B1 (en) Method executed by computer to communicate via virtual space, program causing computer to execute the method, and information processing apparatus
WO2018056155A1 (en) Information processing device, image generation method and head-mounted display
KR102461232B1 (en) Image processing method and apparatus, electronic device, and storage medium
EP3333808A1 (en) Information processing device
JP7459334B2 (en) Image display system, image display program, display control device, and image display method
JP2017138973A (en) Method and program for providing virtual space
JP6564975B2 (en) Virtual space display system
WO2017061890A1 (en) Wireless full body motion control sensor
JP7043711B2 (en) Information processing equipment, information processing equipment programs, head-mounted displays, and display systems
JP6223614B1 (en) Information processing method, information processing program, information processing system, and information processing apparatus
JP6675615B2 (en) Information processing apparatus, information processing apparatus program, head mounted display, and display system
JP6707224B2 (en) Information processing apparatus, information processing apparatus program, head mounted display, and display system
JP6623431B2 (en) Information processing apparatus, information processing apparatus program, head mounted display, and display system
JP6582205B2 (en) Information processing apparatus, information processing apparatus program, head mounted display, and information processing system
US20220405996A1 (en) Program, information processing apparatus, and information processing method
JP6388270B1 (en) Information processing apparatus, information processing apparatus program, head mounted display, and display system
JP6382928B2 (en) Method executed by computer to control display of image in virtual space, program for causing computer to realize the method, and computer apparatus
JP2020071718A (en) Information processing device, information processing method, and program
JP2018170013A (en) Method executed by computer to control display of image in virtual space, program for causing computer to achieve the method, and computer device
JP2018109937A (en) Information processing method, apparatus, information processing system, and program causing computer to execute the information processing method
JP6856572B2 (en) An information processing method, a device, and a program for causing a computer to execute the information processing method.

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190626

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190702

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20191030

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191030

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200110

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200128

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200226

R150 Certificate of patent or registration of utility model

Ref document number: 6675615

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250