JP2020129176A - Information processing apparatus, information processing method, and program - Google Patents

Information processing apparatus, information processing method, and program Download PDF

Info

Publication number
JP2020129176A
JP2020129176A JP2019020428A JP2019020428A JP2020129176A JP 2020129176 A JP2020129176 A JP 2020129176A JP 2019020428 A JP2019020428 A JP 2019020428A JP 2019020428 A JP2019020428 A JP 2019020428A JP 2020129176 A JP2020129176 A JP 2020129176A
Authority
JP
Japan
Prior art keywords
viewpoint
recommended
information
avatar
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019020428A
Other languages
Japanese (ja)
Inventor
圭祐 千田
Keisuke Senda
圭祐 千田
高橋 修一
Shuichi Takahashi
修一 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2019020428A priority Critical patent/JP2020129176A/en
Priority to PCT/JP2019/043871 priority patent/WO2020161975A1/en
Publication of JP2020129176A publication Critical patent/JP2020129176A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

To facilitate determining which position observing an observation object in a virtual space from is desirable.SOLUTION: A model generation device 20 generates composite model information representing a composite model where an observation object model and avatars of an observer and another person are provided within a virtual space model. An information processing apparatus 30-0 includes recommended viewpoint information based on the position and sight direction of the avatar corresponding to another person, in a viewpoint image acquired at a viewpoint of the avatar corresponding to the observer on the basis of the composite model information, so that it is possible to easily determine which position observing the observation object in the virtual space from is desirable, on the basis of the position and attitude of another person.SELECTED DRAWING: Figure 1

Description

この技術は、情報処理装置と情報処理方法とプログラムに関し、仮想空間内での他者の視点情報から有意な観察視点情報を得られるようにする。 This technology enables a significant observation viewpoint information to be obtained from the viewpoint information of another person in the virtual space, regarding the information processing device, the information processing method, and the program.

従来、仮想空間に設けた対象物をユーザ操作に応じて制御することが行われている。例えば特許文献1では、仮想空間にゲームプレイヤーのアバターを設けて、アバターによってキャラクタオブジェクトを操作することで、エンタテイメント性を向上させることが行われている。 Conventionally, an object provided in a virtual space is controlled according to a user operation. For example, in Patent Document 1, an avatar of a game player is provided in a virtual space, and a character object is operated by the avatar to improve entertainment.

特許第6263292号公報Japanese Patent No. 6263292

ところで、仮想空間に観察者のアバターを設けて観察対象を視認する場合、アバターの位置を視点位置として、アバターの位置から観察対象を観察することが可能となる。しかし、アバターの位置が自由に移動できると、いずれの位置から観察対象を観察することが望ましいか容易に判別できない。 By the way, when an observer's avatar is provided in a virtual space to visually recognize an observation target, it is possible to observe the observation target from the position of the avatar with the position of the avatar as the viewpoint position. However, if the position of the avatar can move freely, it cannot be easily determined from which position it is desirable to observe the observation target.

そこで、この技術では、仮想空間における観察対象をいずれの位置から観察することが望ましいか容易に判別できる情報処理装置と情報処理方法とプログラムを提供することを目的とする。 Therefore, it is an object of this technology to provide an information processing apparatus, an information processing method, and a program that can easily determine from which position it is desirable to observe an observation target in a virtual space.

この技術の第1の側面は、
仮想空間に設けられた自己アバターの視点の視点画像に、前記仮想空間に設けられた他者アバターの位置と姿勢に基づいて生成した推奨視点情報を含める視点画像生成部
を備える情報処理装置にある。
The first aspect of this technology is
An information processing apparatus includes a viewpoint image generation unit that includes recommended viewpoint information generated based on the position and orientation of another avatar provided in the virtual space in the viewpoint image of the viewpoint of the self-avatar provided in the virtual space. ..

この技術では、ユーザの位置と姿勢が検出部で検出されて、検出結果に基づき判別した自己アバターの視点の視点画像が視点画像生成部で生成される。また、アバターの位置と姿勢に基づいて推奨視点設定部で設定された推奨視点を示す推奨視点情報が推奨視点情報生成部で生成されて、視点画像生成部は生成した視点画像に推奨視点情報を含める。 In this technique, the position and orientation of the user are detected by the detection unit, and the viewpoint image of the viewpoint of the self-avatar determined based on the detection result is generated by the viewpoint image generation unit. Also, recommended viewpoint information indicating the recommended viewpoint set by the recommended viewpoint setting unit based on the position and posture of the avatar is generated by the recommended viewpoint information generation unit, and the viewpoint image generation unit adds the recommended viewpoint information to the generated viewpoint image. include.

推奨視点設定部は、自己アバターの視点である視点画像の再生時における他者アバターの位置と姿勢に基づいて推奨視点を設定する。また、推奨視点設定部は、自己アバターの視点である視点画像の再生時における推奨視点を、過去の再生時における他者アバターの位置と姿勢に基づいて設定してもよく、他者アバターの属性を用いて推奨視点を設定してもよい。また、推奨視点設定部は、推奨視点を複数設定した場合に推奨視点の優先度を設定する。 The recommended viewpoint setting unit sets a recommended viewpoint based on the position and posture of another avatar at the time of reproducing the viewpoint image which is the viewpoint of the self avatar. Also, the recommended viewpoint setting unit may set the recommended viewpoint at the time of reproducing the viewpoint image, which is the viewpoint of the self avatar, based on the position and the posture of the other avatar at the time of the past reproduction. The recommended viewpoint may be set using. Further, the recommended viewpoint setting unit sets the priority of the recommended viewpoint when a plurality of recommended viewpoints are set.

推奨視点情報生成部は、推奨視点の縮小画像を推奨視点情報として生成してもよく、推奨視点の方向を示す視線方向表示を推奨視点情報として生成してもよい。また、推奨視点情報生成部は、過去の再生時における他者アバターの位置と姿勢に基づいて設定された推奨視点を、再生位置と共に示した情報を推奨視点情報として生成してもよい。さらに、推奨視点情報生成部は、過去の再生時に生成されて記憶された推奨視点情報を用いてもよい。 The recommended viewpoint information generation unit may generate a reduced image of the recommended viewpoint as the recommended viewpoint information, or may generate a gaze direction display indicating the direction of the recommended viewpoint as the recommended viewpoint information. Further, the recommended viewpoint information generation unit may generate information indicating the recommended viewpoint set based on the position and posture of the other person's avatar at the time of past reproduction together with the reproduction position, as the recommended viewpoint information. Furthermore, the recommended viewpoint information generation unit may use the recommended viewpoint information generated and stored at the time of past reproduction.

さらに、視点画像生成部は、ユーザ操作に応じて、自己アバターの視点の視点画像を推奨視点設定部で設定された推奨視点の視点画像に切り替えるようにしてもよい。 Further, the viewpoint image generation unit may switch the viewpoint image of the viewpoint of the self avatar to the viewpoint image of the recommended viewpoint set by the recommended viewpoint setting unit according to the user operation.

この技術の第2の側面は、
視点画像生成部によって、仮想空間に設けられた自己アバターの視点の視点画像に、前記仮想空間に設けられた他者アバターの位置と視線に基づいて生成した推奨視点情報を含めること
を含む情報処理方法にある。
The second aspect of this technology is
Information processing including inclusion of recommended viewpoint information generated based on the position and line of sight of another avatar provided in the virtual space in the viewpoint image of the viewpoint of the self-avatar provided in the virtual space by the viewpoint image generation unit On the way.

情報処理装置を用いたシステムの構成を例示した図である。It is the figure which illustrated the composition of the system using an information processor. 合成モデル情報が示す仮想空間を例示した図である。It is the figure which illustrated the virtual space which synthetic model information shows. 第1の実施の形態の構成を例示した図である。It is a figure which illustrated the structure of 1st Embodiment. 第1の実施の形態の動作を例示したフローチャートである。6 is a flowchart illustrating the operation of the first embodiment. モデル生成装置の動作を例示したフローチャートである。It is a flow chart which illustrated operation of a model generation device. 情報処理装置の動作を例示したフローチャートである。It is a flow chart which illustrated operation of an information processor. システムの動作例を示した図である。It is a figure showing an example of operation of a system. 推奨視線ベクトルPVaを表示する場合を例示した図である。It is a figure which illustrated the case where a recommended line-of-sight vector PVa is displayed. 推奨視点が複数設定された場合を例示した図である。It is the figure which illustrated the case where two or more recommended viewpoints were set up. 推奨視点が複数設定された場合の他の動作を例示した図である。FIG. 11 is a diagram illustrating another operation when a plurality of recommended viewpoints are set. 第2の実施の形態の構成を例示した図である。It is a figure which illustrated the composition of a 2nd embodiment. 第2の実施の形態の動作を例示したフローチャートである。9 is a flowchart illustrating the operation of the second embodiment. モデル生成装置の動作を例示したフローチャートである。It is a flow chart which illustrated operation of a model generation device. 再生位置と推奨視点の関係を観察者に提示する場合の動作例を示した図である。It is a figure showing the operation example when presenting the relation between a reproduction position and a recommended viewpoint to an observer.

以下、本技術を実施するための形態について説明する。なお、説明は以下の順序で行う。
1.システムの構成
2.第1の実施の形態の構成
3.第1の実施の形態の動作
4.第2の実施の形態の構成
5.第2の実施の形態の動作
6.変形例
Hereinafter, modes for carrying out the present technology will be described. The description will be given in the following order.
1. System configuration 2. Configuration of the first embodiment 3. Operation of the first embodiment 4. Configuration of second embodiment 5. Operation of the second embodiment 6. Modification

<1.システムの構成>
図1は、本技術の情報処理装置を用いたシステムの構成を例示している。システム10は、モデル生成装置と情報処理装置と表示装置を有している。なお、図1では、モデル生成装置20にユーザ毎に設けた情報処理装置30-0〜30-nが接続されて、情報処理装置30-0〜30-nには表示装置40-0〜40-nが接続されている場合を例示している。
<1. System configuration>
FIG. 1 illustrates a configuration of a system using an information processing device of the present technology. The system 10 has a model generation device, an information processing device, and a display device. In FIG. 1, the information processing devices 30-0 to 30-n provided for each user are connected to the model generation device 20, and the information processing devices 30-0 to 30-n are connected to the display devices 40-0 to 40. The case where -n is connected is illustrated.

モデル生成装置20は、仮想空間に配置する観察対象モデルと情報処理装置30-0〜30-nから供給されたユーザの位置や姿勢の検出結果を示す検出情報に基づくユーザ毎のアバターを生成する。モデル生成装置20は、三次元空間に観察対象モデルとアバターを設けた合成モデルを生成して、合成モデルを示す合成モデル情報を情報処理装置30-0〜30-nへ出力する。なお、以下の説明では、情報処理装置30-0と表示装置40-0は自己が用いる装置、情報処理装置30-1〜30-nと表示装置40-1〜40-nは他者が用いる装置とする。また、システム10は、後述する非リアルタイム再生では、モデル生成装置20と情報処理装置30-0と表示装置40-0で構成されてもよい。 The model generation device 20 generates an avatar for each user based on the observation target model arranged in the virtual space and detection information supplied from the information processing devices 30-0 to 30-n indicating the detection result of the position and orientation of the user. .. The model generation device 20 generates a synthetic model in which an observation target model and an avatar are provided in a three-dimensional space, and outputs synthetic model information indicating the synthetic model to the information processing devices 30-0 to 30-n. In the following description, the information processing device 30-0 and the display device 40-0 are used by themselves, and the information processing devices 30-1 to 30-n and the display devices 40-1 to 40-n are used by others. The device. Further, the system 10 may be configured by the model generation device 20, the information processing device 30-0, and the display device 40-0 in the non-real time reproduction described later.

図2は合成モデル情報が示す仮想空間を例示している。空間モデルVS内には、観察対象モデルOBとアバターMA-0〜MA-nが設けられている。 FIG. 2 illustrates the virtual space indicated by the synthetic model information. An observation target model OB and avatars MA-0 to MA-n are provided in the space model VS.

情報処理装置30-0は、合成モデル情報に基づき、観察者の位置や姿勢の検出結果が示す仮想空間内のアバターの視点画像を生成する。また、情報処理装置30-0は、他者の位置や姿勢を示す仮想空間内のアバター(以下「他者アバターMA-1〜MA-n」という)の視点に基づいて生成した推奨視点情報を、観察者の位置や姿勢を示す仮想空間内のアバター(以下「自己アバターMA-0」という)の視点で取得された視点画像に含めた画像信号を表示装置40-0へ出力する。なお、視点画像は動画像に限らず静止画像であってもよい。表示装置40-0は、情報処理装置30-0から供給された画像信号に基づき画像表示を行い、推奨視点情報を含む視点画像を表示する。 The information processing device 30-0 generates a viewpoint image of the avatar in the virtual space indicated by the detection result of the position and posture of the observer based on the synthetic model information. Further, the information processing device 30-0 generates the recommended viewpoint information generated based on the viewpoint of the avatar (hereinafter, referred to as “others avatars MA-1 to MA-n”) in the virtual space indicating the position and posture of the other person. , The image signal included in the viewpoint image acquired from the viewpoint of the avatar in the virtual space (hereinafter referred to as “self-avatar MA-0”) indicating the position and posture of the observer is output to the display device 40-0. The viewpoint image is not limited to a moving image and may be a still image. The display device 40-0 displays an image based on the image signal supplied from the information processing device 30-0, and displays a viewpoint image including recommended viewpoint information.

情報処理装置30-1〜30-nは、情報処理装置30-0と同様に構成されており、合成モデル情報に基づき、他者の位置や姿勢の検出結果が示す視点画像を他者毎に生成する。また、情報処理装置30-1〜30-nは、仮想空間内の他者アバターの視点に基づく推奨視点情報を、他者の視点で取得された視点画像に含めた画像信号を表示装置40-1〜40-nへ出力する。表示装置40-1〜40-nは、情報処理装置30-1〜30-nから供給された画像信号に基づき画像表示を行い、推奨視点情報を含む視点画像を表示する。 The information processing devices 30-1 to 30-n are configured in the same manner as the information processing device 30-0, and based on the synthetic model information, the viewpoint image indicated by the detection result of the position and posture of the other person is displayed for each other person. To generate. In addition, the information processing devices 30-1 to 30-n display the image signal including the recommended viewpoint information based on the viewpoint of the other person's avatar in the virtual space in the viewpoint image acquired from the other person's viewpoint. Output to 1-40-n. The display devices 40-1 to 40-n display images based on the image signals supplied from the information processing devices 30-1 to 30-n, and display viewpoint images including recommended viewpoint information.

また、合成モデル情報の非リアルタイム再生では、事前に合成モデル情報を再生して検出された他者の位置や姿勢の検出結果を示す検出情報を合成モデル情報と同期させて記憶する。また、合成モデル情報の非リアルタイム再生では、記憶されている検出情報に基づいて推奨視点情報を生成する。このような非リアルタイム再生では、システム10に情報処理装置30-1〜30-nが設けられていなくとも、推奨視点情報を観察者に提示できる。 In the non-real-time reproduction of the synthetic model information, the detection information indicating the detection result of the position and the posture of the other person detected by reproducing the synthetic model information in advance is stored in synchronization with the synthetic model information. In the non-real time reproduction of the synthetic model information, the recommended viewpoint information is generated based on the stored detection information. In such non-real time reproduction, the recommended viewpoint information can be presented to the observer even if the system 10 is not provided with the information processing devices 30-1 to 30-n.

<2.第1の実施の形態の構成>
次に、第1の実施の形態の構成について説明する。第1の実施の形態ではリアルタイム再生を行う場合を示している。
<2. Configuration of First Embodiment>
Next, the configuration of the first embodiment will be described. The first embodiment shows a case where real-time reproduction is performed.

図3は、第1の実施の形態の構成を例示している。モデル生成装置20-aは、情報記憶部21とモデル生成部22およびモデル合成部25を有している。情報記憶部21には、仮想空間の設定や仮想空間内で観測対象モデルを生成するための情報が記憶されている。観測対象モデルを生成するための情報としては、仮想空間内での観測対象の動き、例えばスポーツ分野における選手の動きや医療分野における手術動作、工事現場における作業動作、厨房等における調理動作等を示す情報が記憶されている。また、実世界での動作をマルチカメラで撮像して、仮想空間で再生可能とした情報、仮想ゲームにおけるプレイキャラクタの動作を示す情報等が記憶されてもよい。また、観測対象は動きを生じる場合に限らず静止物体等であってもよい。 FIG. 3 illustrates the configuration of the first embodiment. The model generation device 20-a includes an information storage unit 21, a model generation unit 22, and a model synthesis unit 25. The information storage unit 21 stores information for setting the virtual space and generating an observation target model in the virtual space. As the information for generating the observation target model, the movement of the observation target in the virtual space, for example, the movement of the athlete in the sports field, the surgical operation in the medical field, the work operation in the construction site, the cooking operation in the kitchen, etc. are shown. Information is stored. Further, information indicating that a motion in the real world is captured by a multi-camera and can be reproduced in a virtual space, information indicating a motion of a play character in a virtual game, and the like may be stored. Further, the observation target is not limited to the case where a motion occurs, and may be a stationary object or the like.

モデル生成部22は、情報記憶部21に記憶されている情報を用いてモデル生成を行う。モデル生成部22は、例えば三次元の仮想空間を示す空間モデルや観測対象を示す三次元の観測対象モデルを生成する。また、モデル生成部22は、情報処理装置30-0〜30-nから供給された検出情報等に基づきアバターとアバターの視線モデルを生成する。モデル生成部22は、生成したモデルをモデル合成部25へ出力する。 The model generation unit 22 uses the information stored in the information storage unit 21 to generate a model. The model generation unit 22 generates, for example, a spatial model showing a three-dimensional virtual space or a three-dimensional observation target model showing an observation target. In addition, the model generation unit 22 generates an avatar and a line-of-sight model of the avatar based on the detection information and the like supplied from the information processing devices 30-0 to 30-n. The model generation unit 22 outputs the generated model to the model synthesis unit 25.

モデル合成部25は、モデル合成処理を行い、空間モデル内に観測対象モデルを配置する。また、モデル合成部25は、情報処理装置30-0〜30-nから供給された検出情報等に基づきアバターを空間モデル内に配置する。モデル合成部25は、観測対象モデルとアバターが空間モデル内に配置された合成モデルを生成して、この合成モデルと視線モデルを示す合成モデル情報を情報処理装置30-0〜30-nへ出力する。 The model synthesizing unit 25 performs a model synthesizing process and arranges the observation target model in the spatial model. The model synthesis unit 25 also arranges the avatar in the spatial model based on the detection information and the like supplied from the information processing devices 30-0 to 30-n. The model synthesis unit 25 generates a synthetic model in which the observation target model and the avatar are arranged in the spatial model, and outputs synthetic model information indicating the synthetic model and the line-of-sight model to the information processing devices 30-0 to 30-n. To do.

情報処理装置30-0は、検出部31、推奨視点設定部32、操作部33、視点制御部34、推奨視点情報生成部35および視点画像生成部36を有している。なお、情報処理装置30-1〜30-nは、情報処理装置30-0と同様に構成されており説明は省略する。 The information processing device 30-0 includes a detection unit 31, a recommended viewpoint setting unit 32, an operation unit 33, a viewpoint control unit 34, a recommended viewpoint information generation unit 35, and a viewpoint image generation unit 36. The information processing devices 30-1 to 30-n have the same configuration as the information processing device 30-0, and a description thereof will be omitted.

検出部31は、観察者の姿勢と位置を検出する。検出部31は、例えば3軸ジャイロ・センサーと3軸加速度センサーと3軸地磁気センサーなど複数のセンサー素子を組み合わせて構成して、観察者の姿勢と位置を検出する。また、後述するように表示装置40-0として観察者の頭部に装着された状態で利用されるヘッドマウントディスプレイが用いられる場合、複数のセンサー素子をヘッドマウントディスプレイに設けて観察者の位置や頭の向きを示す検出情報を生成する。また、検出部31は実空間を撮像して得られる画像から観察者の姿勢と位置を検出してもよい。この場合、実空間を撮像する撮像装置をヘッドマウントディスプレイに設ける。検出部31は、観察者の姿勢と位置を検出して、検出結果を示す検出情報を視点制御部34へ出力する。 The detector 31 detects the posture and position of the observer. The detection unit 31 is configured by combining a plurality of sensor elements such as a triaxial gyro sensor, a triaxial acceleration sensor, and a triaxial geomagnetic sensor, and detects the posture and position of the observer. When a head-mounted display used as a display device 40-0 mounted on the head of an observer is used as described below, a plurality of sensor elements are provided on the head-mounted display to adjust the position of the observer and the position of the observer. The detection information indicating the orientation of the head is generated. Further, the detection unit 31 may detect the posture and position of the observer from an image obtained by imaging the real space. In this case, the head mount display is provided with an image pickup device for picking up an image of the real space. The detection unit 31 detects the posture and position of the observer, and outputs detection information indicating the detection result to the viewpoint control unit 34.

推奨視点設定部32は、自己アバターの視点である視点画像の再生時における他者アバターの位置と姿勢に基づいて推奨視点を設定する。推奨視点設定部32は、例えばモデル生成装置20-aから供給された合成モデル情報で示された視線モデル(アバターの位置と視線方向を示すモデル)に基づいて判別した同時刻において他者アバターが最も多く注目している視点としてもよく、注目しているアバターの割合に応じて1または複数の推奨視点を設定してもよい。また、複数の推奨視点を設定する場合には、推奨視点の優先度を注目しているアバターの割合等に応じて設定してもよい。また、推奨視点設定部32は、時系列の他者のアバターの視点に基づき、合成モデル情報の再生時における推奨時刻と該推奨時刻における推奨視点を設定してもよい。さらに、推奨視点は、他者のアバターに関する属性(例えば他者の性別,他者が教師あるいは生徒のいずれであるか等)に応じて推奨視点を設定してもよい。推奨視点設定部32は、推奨視点を示す推奨視点情報を視点制御部34と推奨視点情報生成部35へ出力する。 The recommended viewpoint setting unit 32 sets the recommended viewpoint based on the position and posture of the other person's avatar at the time of reproducing the viewpoint image which is the viewpoint of the self avatar. The recommended viewpoint setting unit 32 determines that another person's avatar is at the same time determined based on the line-of-sight model (the model indicating the position and the line-of-sight direction of the avatar) indicated by the synthetic model information supplied from the model generation device 20-a. It may be the viewpoint that is most focused, or one or more recommended viewpoints may be set according to the ratio of the avatars that are focused. Moreover, when setting a plurality of recommended viewpoints, the priority of the recommended viewpoints may be set according to the ratio of the avatar that is focused. Further, the recommended viewpoint setting unit 32 may set a recommended time at the time of reproducing the synthetic model information and a recommended viewpoint at the recommended time based on the viewpoint of the avatar of the other person in time series. Further, the recommended viewpoint may be set in accordance with the attribute of another person's avatar (for example, the gender of the other person, whether the other person is a teacher or a student, etc.). The recommended viewpoint setting unit 32 outputs the recommended viewpoint information indicating the recommended viewpoint to the viewpoint control unit 34 and the recommended viewpoint information generation unit 35.

操作部33はユーザ操作に応じた操作信号を生成する。例えば操作部33は、視点を推奨視点に移動するユーザの移動指示操作に応じた操作信号を視点制御部34へ出力する。また、操作部33は、推奨視点への移動指示操作の他に、推奨視点以外への空間モデルVS内での任意の位置に自由に視点移動操作も行う。 The operation unit 33 generates an operation signal according to a user operation. For example, the operation unit 33 outputs, to the viewpoint control unit 34, an operation signal corresponding to the movement instruction operation of the user who moves the viewpoint to the recommended viewpoint. In addition to the movement instruction operation to the recommended viewpoint, the operation unit 33 also freely performs the viewpoint movement operation to an arbitrary position in the spatial model VS other than the recommended viewpoint.

視点制御部34は、検出部31からの検出情報に基づき後述する視点画像生成部36を制御して、観察者に対応する自己アバターの視点で得られる仮想空間内の画像を生成させる。また、視点制御部34は、操作部33からの操作信号に応じて、推奨視点設定部32からの推奨視点情報に基づき、後述する視点画像生成部36を制御して、推奨視点で得られる仮想空間内の画像を生成させる。さらに視点制御部34は、検出部31からの検出情報や操作部33からの視点操作情報、および自己の視点を推奨視点とするユーザ指示をモデル生成装置20-aのモデル生成部22へ出力する。 The viewpoint control unit 34 controls a viewpoint image generation unit 36 described below based on the detection information from the detection unit 31 to generate an image in the virtual space obtained from the viewpoint of the self-avatar corresponding to the observer. In addition, the viewpoint control unit 34 controls a viewpoint image generation unit 36, which will be described later, based on the recommended viewpoint information from the recommended viewpoint setting unit 32, in response to an operation signal from the operation unit 33, and obtains a virtual image with the recommended viewpoint. Generate an image in space. Further, the viewpoint control unit 34 outputs the detection information from the detection unit 31, the viewpoint operation information from the operation unit 33, and the user instruction with the own viewpoint as the recommended viewpoint to the model generation unit 22 of the model generation device 20-a. ..

推奨視点情報生成部35は、推奨視点設定部32で設定された推奨視点に関する推奨視点情報を生成する。推奨視点情報生成部35は、例えば推奨視点で得られる仮想空間内の縮小画像あるいは視点が推奨視点に最も近い他者アバターで得られる画像の縮小画像等を推奨視点情報とする。また、推奨視点情報生成部35は、推奨視点の方向を示す視線方向表示である推奨視線ベクトル表示等を推奨視点情報としてもよい。推奨視点情報生成部35は、生成した推奨視点情報を視点画像生成部36へ出力する。 The recommended viewpoint information generation unit 35 generates recommended viewpoint information regarding the recommended viewpoint set by the recommended viewpoint setting unit 32. The recommended viewpoint information generating unit 35 uses, for example, a reduced image in a virtual space obtained with the recommended viewpoint or a reduced image of an image obtained with an avatar of another person whose viewpoint is closest to the recommended viewpoint. Further, the recommended viewpoint information generation unit 35 may use the recommended viewpoint vector display, which is the viewpoint direction display indicating the direction of the recommended viewpoint, as the recommended viewpoint information. The recommended viewpoint information generation unit 35 outputs the generated recommended viewpoint information to the viewpoint image generation unit 36.

視点画像生成部36は、視点制御部34からの制御信号に基づき、観察者に対応する自己アバターの視点で得られる仮想空間内の視点画像を生成する。また、視点画像生成部36は、生成した視点画像に推奨視点情報生成部35で生成された推奨視点情報を重畳させた画像信号を表示装置40-0へ出力する。 The viewpoint image generation unit 36 generates a viewpoint image in the virtual space obtained from the viewpoint of the self avatar corresponding to the observer, based on the control signal from the viewpoint control unit 34. Further, the viewpoint image generation unit 36 outputs an image signal in which the recommended viewpoint information generated by the recommended viewpoint information generation unit 35 is superimposed on the generated viewpoint image to the display device 40-0.

表示装置40-0としては、例えば観察者の頭部に装着された状態で利用されるヘッドマウントディスプレイが用いられる。表示装置40-0は、情報処理装置30-0で生成された画像信号に基づき、仮想空間内の自己アバターの視点画像を表示する。また、視点画像に推奨視点情報が重畳されており、推奨視点情報によって推奨視点を観察者が判別できるようにする。 As the display device 40-0, for example, a head mounted display used while being attached to the observer's head is used. The display device 40-0 displays the viewpoint image of the self avatar in the virtual space based on the image signal generated by the information processing device 30-0. In addition, recommended viewpoint information is superimposed on the viewpoint image so that the observer can distinguish the recommended viewpoint from the recommended viewpoint information.

<3.第1の実施の形態の動作>
次に第1の実施の形態の動作について説明する。図4は、第1の実施の形態の動作を例示したフローチャートである。システム10はステップST1で表示画像の生成処理のループを開始する。
<3. Operation of First Embodiment>
Next, the operation of the first embodiment will be described. FIG. 4 is a flowchart illustrating the operation of the first embodiment. The system 10 starts a loop of display image generation processing in step ST1.

ステップST2aでシステム10は観察者の位置と姿勢を検出する。システム10の情報処理装置30-0は、観察者の位置と姿勢を検出してステップST3aに進む。 In step ST2a, the system 10 detects the position and orientation of the observer. The information processing device 30-0 of the system 10 detects the position and orientation of the observer and proceeds to step ST3a.

ステップST3aでシステム10はアバターを生成する。システム10のモデル生成装置20-aは、仮想空間における観察者を示す自己アバターを生成してステップST4aに進む。 In step ST3a, the system 10 creates an avatar. The model generation device 20-a of the system 10 generates a self avatar showing an observer in the virtual space, and proceeds to step ST4a.

ステップST4aでシステム10は視線モデルを生成する。システム10のモデル生成装置20-aは、観察者の位置と姿勢に基づき、自己アバターの視線を示す視線モデルを生成してステップST6に進む。なお、第2の実施の形態で説明するように、非リアルタイム再生を行う場合に観察者の検出情報を利用する場合は、ステップST4aからステップST5aに進み、観察者の位置と姿勢の検出結果を示す検出情報を記憶してからステップST6に進むようにしてもよい。 In step ST4a, the system 10 generates a line-of-sight model. The model generation device 20-a of the system 10 generates a line-of-sight model indicating the line of sight of the self-avatar based on the position and posture of the observer, and proceeds to step ST6. As described in the second embodiment, when utilizing the detection information of the observer when performing non-real time reproduction, the process proceeds from step ST4a to step ST5a and the detection result of the position and orientation of the observer is displayed. You may make it advance to step ST6 after storing the detection information shown.

ステップST2bでシステム10は他者の位置と姿勢を検出する。システム10の情報処理装置30-1〜30-nは、他者毎の位置と姿勢を検出してステップST3bに進む。 In step ST2b, the system 10 detects the position and posture of another person. The information processing devices 30-1 to 30-n of the system 10 detect the position and posture of each other and proceed to step ST3b.

ステップST3bでシステム10はアバターを生成する。システム10のモデル生成装置20-aは、仮想空間における他者を示す他者アバターを生成してステップST4bに進む。 In step ST3b, the system 10 creates an avatar. The model generation device 20-a of the system 10 generates another person's avatar indicating another person in the virtual space, and proceeds to step ST4b.

ステップST4bでシステム10は視線モデルを生成する。システム10のモデル生成装置20-aは、他者の位置と姿勢に基づき、他者アバターの視線を示す視線モデルを生成してステップST6に進む。なお、第2の実施の形態で説明するように、非リアルタイム再生を行う場合にはステップST4bからステップST5bに進み、他者の位置と姿勢の検出結果を示す検出情報を記憶してからステップST6に進むようにしてもよい。 In step ST4b, the system 10 generates a line-of-sight model. The model generation device 20-a of the system 10 generates a line-of-sight model indicating the line-of-sight of the avatar of another person based on the position and posture of the other person, and proceeds to step ST6. As described in the second embodiment, when performing non-real time reproduction, the process proceeds from step ST4b to step ST5b, and the detection information indicating the detection result of the position and posture of the other person is stored and then step ST6. You may proceed to.

ステップST2cでシステム10は観察対象モデルを生成する。システム10のモデル生成装置20-aは、観察者や他者によって観察される三次元の観察対象モデルを生成してステップST3cに進む。 In step ST2c, the system 10 generates an observation target model. The model generation device 20-a of the system 10 generates a three-dimensional observation target model observed by an observer or another person, and proceeds to step ST3c.

ステップST3cでシステム10は空間モデルを生成する。システム10のモデル生成装置20-aは、観察対象モデルおよび自己アバターと他者アバターを配置する仮想空間を示す空間モデルを生成してステップST6に進む。 In step ST3c, the system 10 generates a spatial model. The model generation device 20-a of the system 10 generates an observation target model and a spatial model showing a virtual space in which a self avatar and another avatar are arranged, and proceeds to step ST6.

ステップST6でシステム10はモデル合成処理を行う。システム10のモデル生成装置20-aは、仮想空間を示す空間モデル内に観察対象モデルと観察者および他者の位置に応じて自己アバターと他者アバターを配置する。さらに、モデル生成装置20-aは、観察者および他者の姿勢に応じて自己アバターと他者アバターの姿勢を設定して合成モデル情報を生成してステップST7に進む。 In step ST6, the system 10 performs model synthesis processing. The model generation device 20-a of the system 10 arranges the self avatar and the other person's avatar in the space model showing the virtual space according to the positions of the observation target model, the observer, and the other person. Further, the model generation device 20-a sets the postures of the self avatar and the avatar of the other person according to the postures of the observer and the other person, generates the synthetic model information, and proceeds to step ST7.

ステップST7でシステム10は視点画像を生成する。システム10の情報処理装置30-0は、ステップST56生成された合成モデル情報と観察者の位置と姿勢に基づき、自己アバターの視点である視点画像(観察者視点画像ともいう)を生成する。さらに、情報処理装置30-0は、他者の視線モデルに基づき推奨視点を設定して、推奨視点に関する推奨視点情報を観察者視点画像に重畳した表示画像の画像信号を生成してステップST8に進み、表示画像の生成処理のループを終了する。また、ステップST1〜ステップST8の処理を繰り返し行うことで、リアルタイム再生を行う。 In step ST7, the system 10 generates a viewpoint image. The information processing device 30-0 of the system 10 generates a viewpoint image (also referred to as an observer viewpoint image) that is the viewpoint of the self avatar, based on the synthetic model information generated in step ST56 and the position and orientation of the observer. Further, the information processing device 30-0 sets the recommended viewpoint based on the line-of-sight model of another person, generates the image signal of the display image in which the recommended viewpoint information regarding the recommended viewpoint is superimposed on the observer viewpoint image, and proceeds to step ST8. Then, the loop of the display image generation process ends. In addition, real-time reproduction is performed by repeating the processing of steps ST1 to ST8.

次に、モデル生成装置と情報処理装置の動作について個々に説明する。図5は、モデル生成装置の動作を例示したフローチャートであり、位置や姿勢の変化により検出情報が変更された場合にアバターを更新する場合を例示している。 Next, the operations of the model generation device and the information processing device will be individually described. FIG. 5 is a flowchart illustrating the operation of the model generation device, and illustrates the case where the avatar is updated when the detection information is changed due to a change in position or posture.

ステップST11でモデル生成装置20-aは観察対象モデルと空間モデルを生成する。モデル生成装置20-aは、観察者と他者が観察する観察対象モデルと、対象物体モデルが配置される三次元の仮想空間を示す空間モデルを生成してステップST12に進む。 In step ST11, the model generation device 20-a generates an observation target model and a space model. The model generation device 20-a generates an observation target model observed by an observer and another person, and a spatial model indicating a three-dimensional virtual space in which the target object model is arranged, and proceeds to step ST12.

ステップST12でモデル生成装置20-aは検出情報の取得を開始する。モデル生成装置20-aは情報処理装置30-0〜30-nから供給される検出情報の取得を開始してステップST13に進む。 In step ST12, the model generation device 20-a starts acquisition of detection information. The model generation device 20-a starts acquisition of the detection information supplied from the information processing devices 30-0 to 30-n and proceeds to step ST13.

ステップST13でモデル生成装置20-aはアバター生成処理を行う。モデル生成装置20-aは、情報処理装置30-0を利用する観察者や情報処理装置30-1〜30-nを利用する他者毎にアバターとアバターの視線を示す視線モデルを生成してステップST15に進む。なお、第2の実施の形態で説明するように、非リアルタイム再生を行う場合にはステップST13からステップST14に進み、検出情報を記憶してからステップST15に進むようにしてもよい。 In step ST13, the model generation device 20-a performs an avatar generation process. The model generation apparatus 20-a generates an avatar and a line-of-sight model showing the line of sight of the avatar for each observer who uses the information processing apparatus 30-0 and each other who uses the information processing apparatuses 30-1 to 30-n. It proceeds to step ST15. As described in the second embodiment, when performing non-real time reproduction, the process may proceed from step ST13 to step ST14, store the detection information, and then proceed to step ST15.

ステップST15でモデル生成装置20-aは、検出情報が変更されたか判別する。モデル生成装置20-aは、観察者あるいは他者の位置や姿勢が変化して検出情報が変更された場合にステップST16に進み、検出情報が変更されていない場合はステップST18に進む。 In step ST15, the model generation device 20-a determines whether the detection information has been changed. The model generation device 20-a proceeds to step ST16 when the detection information is changed due to a change in the position or posture of the observer or another person, and proceeds to step ST18 when the detection information is not changed.

ステップST16でモデル生成装置20-aはアバター更新処理を行う。モデル生成装置20-aは、変更後の検出情報に基づき対応するアバターの位置や姿勢を調整する。また、アバターの位置や姿勢の調整に応じて視線モデルを更新してステップST18に進む。なお、第2の実施の形態で説明するように、非リアルタイム再生を行う場合にはステップST16からステップST17に進み、変更後の検出情報を記憶してからステップST18に進むようにしてもよい。 In step ST16, the model generation device 20-a performs an avatar update process. The model generation device 20-a adjusts the position and posture of the corresponding avatar based on the changed detection information. In addition, the line-of-sight model is updated according to the adjustment of the position and posture of the avatar, and the process proceeds to step ST18. As described in the second embodiment, when performing non-real time reproduction, the process may proceed from step ST16 to step ST17, store the changed detection information, and then proceed to step ST18.

ステップST18でモデル生成装置20-aはモデル合成処理を行う。モデル生成装置20-aは,ステップST11で生成した空間モデルに観察対象モデルを配置する。さらにモデル生成装置20-aは、ステップST13で生成したアバターやステップST16で位置や姿勢を更新したアバターを、検出情報に基づいた位置や姿勢で空間モデルに配置して合成モデルを生成してステップST19に進む。 In step ST18, the model generation device 20-a performs model synthesis processing. The model generation device 20-a arranges the observation target model in the spatial model generated in step ST11. Further, the model generation device 20-a arranges the avatar generated in step ST13 and the avatar whose position and posture are updated in step ST16 in the spatial model at the position and posture based on the detection information to generate a synthetic model, and Go to ST19.

ステップST19でモデル生成装置20-aは合成モデル情報を出力する。モデル生成装置20-aはステップST18で生成した合成モデルと視線モデルを示す合成モデル情報を情報処理装置30-0〜30-nに出力する。 In step ST19, the model generation device 20-a outputs synthetic model information. The model generation device 20-a outputs the synthetic model information indicating the synthetic model and the line-of-sight model generated in step ST18 to the information processing devices 30-0 to 30-n.

図6は、情報処理装置の動作を例示したフローチャートである。なお、図6では、例えば情報処理装置30-0の動作を示している。 FIG. 6 is a flowchart illustrating the operation of the information processing device. Note that FIG. 6 illustrates the operation of the information processing device 30-0, for example.

ステップST21で情報処理装置30-0は検出情報を出力する。情報処理装置30-0は、検出部31で検出した位置や姿勢の検出結果を示す検出情報を生成してモデル生成装置20-aへ出力してステップST22に進む。 In step ST21, the information processing device 30-0 outputs the detection information. The information processing device 30-0 generates detection information indicating the detection result of the position and orientation detected by the detection unit 31, outputs the detection information to the model generation device 20-a, and proceeds to step ST22.

ステップST22で情報処理装置30-0は合成モデル情報を取得する。情報処理装置30-0は、仮想空間を示す空間モデル内に観察対象モデルと自己および他者のアバターが配置された合成モデルおよび視線モデルを示す合成モデル情報をモデル生成装置20-aから取得してステップST23に進む。 In step ST22, the information processing device 30-0 acquires the synthetic model information. The information processing device 30-0 acquires, from the model generation device 20-a, synthetic model information indicating the line-of-sight model and the synthetic model in which the observation target model, the avatars of the self and another are arranged in the spatial model indicating the virtual space. And proceeds to step ST23.

ステップST23で情報処理装置30-0は視線画像を生成する。情報処理装置30-0は、合成モデル情報から自己アバターの視線の画像である視点画像を生成してステップST24に進む。 In step ST23, the information processing device 30-0 generates a line-of-sight image. The information processing device 30-0 generates a viewpoint image which is an image of the line of sight of the self avatar from the synthetic model information, and proceeds to step ST24.

ステップST24で情報処理装置30-0は推奨視点情報を生成する。情報処理装置30-0は、アバター毎の視線モデルに基づき推奨視点を設定して、推奨視点を観察者が判別可能とするための推奨視点情報を生成してステップST25に進む。 In step ST24, the information processing device 30-0 generates recommended viewpoint information. The information processing device 30-0 sets the recommended viewpoint based on the line-of-sight model of each avatar, generates recommended viewpoint information for allowing the observer to distinguish the recommended viewpoint, and proceeds to step ST25.

ステップST25で情報処理装置30-0は表示画像を生成する。情報処理装置30-0は、ステップST23で生成した視点画像に、ステップST24で生成した推奨視点情報を重畳させて表示画像を生成する。さらに、情報処理装置30-0は、生成した表示画像を示す画像信号を表示装置40-0へ出力してステップST26に進む。 In step ST25, the information processing device 30-0 generates a display image. The information processing device 30-0 generates a display image by superimposing the recommended viewpoint information generated in step ST24 on the viewpoint image generated in step ST23. Further, the information processing device 30-0 outputs an image signal indicating the generated display image to the display device 40-0 and proceeds to step ST26.

ステップST26で情報処理装置30-0は推奨視点へ移動するか判別する。情報処理装置30-0は、推奨視点への移動操作が観察者によって行われた場合にステップST27に進み、移動操作が行われていない場合はステップST28に進む。 In step ST26, the information processing device 30-0 determines whether to move to the recommended viewpoint. The information processing device 30-0 proceeds to step ST27 when the observer performs the movement operation to the recommended viewpoint, and proceeds to step ST28 when the movement operation is not performed.

ステップST27で情報処理装置30-0は移動処理を行う。情報処理装置30-0は、自己アバターの視点が推奨視点となるように自己アバターの位置と姿勢を変更する。また、変更後のアバターに対応する検出情報をモデル生成装置20-aへ出力してステップST22に戻る。 In step ST27, the information processing device 30-0 performs a moving process. The information processing device 30-0 changes the position and posture of the self avatar so that the viewpoint of the self avatar becomes the recommended viewpoint. Further, the detection information corresponding to the changed avatar is output to the model generation device 20-a, and the process returns to step ST22.

ステップST28で情報処理装置30-0は位置姿勢の変更があったか判別する。情報処理装置30-0は、観察者の位置や姿勢の変更がない場合はステップST22に戻り、変更を生じた場合にはステップST29に進む。 In step ST28, the information processing device 30-0 determines whether the position and orientation have been changed. The information processing device 30-0 returns to step ST22 when the observer's position or posture is not changed, and proceeds to step ST29 when the observer's position or posture is changed.

ステップST29で情報処理装置30-0は新たな位置検出情報を出力する。情報処理装置30-0は、観察者の変更後の位置や姿勢を示す検出情報を生成してモデル生成装置20-aへ出力してステップST22に戻る。 In step ST29, the information processing device 30-0 outputs new position detection information. The information processing device 30-0 generates detection information indicating the changed position and orientation of the observer, outputs the detection information to the model generation device 20-a, and returns to step ST22.

図7は、システムの動作例を示している。仮想空間を示す空間モデルVSでは、図7の(a)に示すように、観察対象モデルOBと自己アバターMA-0と他者アバターMA-1,MA-2が、自己および他者の位置や姿勢に応じて設けられている。情報処理装置30-0は、自己アバターMA-0の視点である図7の(b)に示す視点画像P0を生成する。また、他者アバターMA-1,MA-2の視点が例えば同一であり図7の(c)に示す視点画像Paとなる場合、視点画像Paを縮小して推奨視点情報PRaとして視点画像P0に重畳させて、図7の(d)に示す表示画像を観察者に提示する。 FIG. 7 shows an operation example of the system. In the space model VS indicating the virtual space, as shown in (a) of FIG. 7, the observation target model OB, the self avatar MA-0, and the other person's avatars MA-1, MA-2 are located at the positions of the self and the other person. It is provided according to the posture. The information processing device 30-0 generates the viewpoint image P0 shown in FIG. 7B which is the viewpoint of the self avatar MA-0. Further, when the viewpoints of the other avatars MA-1 and MA-2 are, for example, the same and the viewpoint image Pa shown in FIG. 7C is obtained, the viewpoint image Pa is reduced to the viewpoint image P0 as the recommended viewpoint information PRa. The display image shown in (d) of FIG. 7 is superimposed and presented to the observer.

また、操作部33で推奨視点への移動操作が行われた場合、自己アバターMA-0を推奨視点となる位置に移動する。したがって、表示装置40-0に表示される視点画像P0は、図7の(c)に示す視点画像Paとなる。 Further, when the operation unit 33 performs a moving operation to the recommended viewpoint, the self avatar MA-0 is moved to a position serving as the recommended viewpoint. Therefore, the viewpoint image P0 displayed on the display device 40-0 becomes the viewpoint image Pa shown in (c) of FIG.

このように、観察者が視認する表示画像では、自己アバターMA-0の視点からの観察対象と推奨視点情報が示されるので、観察対象を容易に望ましい位置や方向から観察できるようになる。また、推奨視点情報は推奨視点からの縮小画像に限らず図8に示すように推奨の方向を示す推奨視線ベクトルPVaを表示してもよい。 In this way, in the display image visually recognized by the observer, the observation target from the viewpoint of the self-avatar MA-0 and the recommended viewpoint information are shown, so that the observation target can be easily observed from the desired position or direction. Further, the recommended viewpoint information is not limited to the reduced image from the recommended viewpoint, and the recommended line-of-sight vector PVa indicating the recommended direction may be displayed as shown in FIG.

また、推奨視点が複数設定された場合は、推奨視点毎に推奨視点情報を生成してもよい。図9は、推奨視点が複数設定された場合を例示している。仮想空間を示す空間モデルVSでは、図9の(a)に示すように、観察対象モデルOBと自己アバターMA-0と他者アバターMA-1,MA-2が、自己および他者の位置や姿勢に応じて設けられている。情報処理装置30-0は、自己アバターMA-0の視点である図9の(b)に示す視点画像P0を生成する。また、他者アバターMA-1と他者アバターMA-2の視点が異なり、それぞれの視点を推奨視点とする場合、図9の(c)に示す他者アバターMA-1の視点画像P1と図9の(d)に示す他者アバターMA-2の視点画像P2を縮小して推奨視点情報PR1,PR2として視点画像P0に重畳させて、図9の(e)に示す表示画像を観察者に提示する。 When a plurality of recommended viewpoints are set, recommended viewpoint information may be generated for each recommended viewpoint. FIG. 9 illustrates a case where a plurality of recommended viewpoints are set. In the space model VS indicating the virtual space, as shown in FIG. 9A, the observation target model OB, the self avatar MA-0, and the other person's avatars MA-1 and MA-2 are the positions of the self and the other person. It is provided according to the posture. The information processing device 30-0 generates the viewpoint image P0 shown in FIG. 9B which is the viewpoint of the self-avatar MA-0. Further, when the viewpoints of the other person's avatar MA-1 and the other person's avatar MA-2 are different and the respective viewpoints are set as the recommended viewpoints, the viewpoint image P1 of the other person's avatar MA-1 shown in FIG. 9(d), the viewpoint image P2 of the other person's avatar MA-2 is reduced and superposed on the viewpoint image P0 as recommended viewpoint information PR1, PR2, and the display image shown in FIG. 9(e) is displayed to the observer. Present.

また、推奨視点情報は推奨視点からの視点画像に限らず、推奨視点ベクトルを表示してもよい。図10は、推奨視点が複数設定された場合の他の動作を例示している。情報処理装置30-0は、推奨視点が他者アバターMA-1,MA-2である場合、他者アバターMA-1の視線方向を示す推奨視線ベクトルPV1と、他者アバターMA-2の視線方向を示す推奨視線ベクトルPV2を表示する。 The recommended viewpoint information is not limited to the viewpoint image from the recommended viewpoint, and the recommended viewpoint vector may be displayed. FIG. 10 illustrates another operation when a plurality of recommended viewpoints are set. When the recommended viewpoints are the other person's avatars MA-1 and MA-2, the information processing apparatus 30-0 and the other person's avatar MA-2's recommended line-of-sight vector PV1 indicating the line-of-sight direction of the other person's avatar MA-1. The recommended line-of-sight vector PV2 indicating the direction is displayed.

さらに、推奨視点を複数設ける場合、複数の推奨視点について優先度を設定して、有線順位に応じて推奨視点情報の属性を調整してもよい。例えば、優先度が低くなるに伴い推奨視点画像や推奨視線ベクトルの表示サイズを小さくしたり、優先度に応じて推奨視点の縮小画像の画枠や推奨視線ベクトルの表示色を設定してもよい。 Furthermore, when a plurality of recommended viewpoints are provided, priority may be set for the plurality of recommended viewpoints and the attributes of the recommended viewpoint information may be adjusted according to the wired rank. For example, the display size of the recommended viewpoint image and the recommended line-of-sight vector may be reduced as the priority decreases, or the image frame of the reduced image of the recommended viewpoint and the display color of the recommended line-of-sight vector may be set according to the priority. ..

このように、第1の実施の形態によれば、推奨視点情報が観察者に対して提示されるので、仮想空間における観察対象をいずれの位置から観察することが望ましいか容易に判別できるようになる。例えば選手の動きや手術動作、工事作業動作、調理動作等を三次元で再生する際に、いずれの視点で観察すれば動作を正しく理解できるか観察者に提示できるので、学習効果等を高めることができる。また、仮想ゲーム等に利用すれば攻略方法等を容易に学習できるようになる。 In this way, according to the first embodiment, the recommended viewpoint information is presented to the observer, so that it is possible to easily determine from which position it is desirable to observe the observation target in the virtual space. Become. For example, when reproducing a player's movements, surgical movements, construction work movements, cooking movements, etc. in three dimensions, it is possible to present to the observer which viewpoint from which to correctly understand the movements. You can In addition, if it is used for a virtual game or the like, it becomes possible to easily learn a strategy or the like.

<4.第2の実施の形態の構成>
次に、第2の実施の形態の構成について説明する。第2の実施の形態では非リアルタイム再生を行う場合を示している。
<4. Configuration of the second embodiment>
Next, the configuration of the second embodiment will be described. The second embodiment shows a case where non-real time reproduction is performed.

図11は、第2の実施の形態の構成を例示している。モデル生成装置20-bは、情報記憶部23とモデル生成部24およびモデル合成部25を有している。情報記憶部23には、第1の実施の形態と同様に、仮想空間の設定や仮想空間内で観測対象モデルを生成するための情報が記憶されている。また、情報記憶部23には、モデル合成部25で生成した合成モデルを過去に再生したときに、情報処理装置から供給された検出情報が合成モデルの再生位置に同期して記憶される。また、情報記憶部23には、モデル合成部25で生成された合成モデルを過去に再生したときに生成された推奨視点情報を合成モデルの再生位置に同期して記憶してもよい。 FIG. 11 illustrates the configuration of the second embodiment. The model generation device 20-b includes an information storage unit 23, a model generation unit 24, and a model synthesis unit 25. As in the first embodiment, the information storage unit 23 stores information for setting the virtual space and generating an observation target model in the virtual space. Further, in the information storage unit 23, when the synthetic model generated by the model synthesizing unit 25 is reproduced in the past, the detection information supplied from the information processing device is stored in synchronization with the reproduction position of the synthetic model. Further, the information storage unit 23 may store the recommended viewpoint information generated when the synthetic model generated by the model synthesis unit 25 is reproduced in the past in synchronization with the reproduction position of the synthetic model.

モデル生成部24は、情報記憶部23に記憶されている情報を用いてモデル生成を行う。モデル生成部24は、例えば三次元の仮想空間を示す空間モデルや観測対象を示す三次元の観測対象モデルを生成する。モデル生成部24は、生成したモデルをモデル合成部25へ出力する。また、モデル生成部24は、情報記憶部23から再生時間に同期した検出情報を取得して、取得した検出情報に基づき他者アバターと視点モデルを生成する。さらにモデル生成部24は、情報処理装置30-0から供給された検出情報に基づき自己アバターを生成する。なお、検出情報には他者の検出情報だけでなく、過去に他者の検出情報と共に情報処理装置30-0で生成した検出情報が含まれていてもよい。 The model generation unit 24 performs model generation using the information stored in the information storage unit 23. The model generation unit 24 generates, for example, a spatial model indicating a three-dimensional virtual space or a three-dimensional observation target model indicating an observation target. The model generation unit 24 outputs the generated model to the model synthesis unit 25. Further, the model generation unit 24 acquires the detection information synchronized with the reproduction time from the information storage unit 23, and generates the other person avatar and the viewpoint model based on the acquired detection information. Further, the model generation unit 24 generates a self avatar based on the detection information supplied from the information processing device 30-0. It should be noted that the detection information may include not only the detection information of another person but also the detection information generated by the information processing device 30-0 together with the detection information of another person in the past.

モデル合成部25は、モデル合成処理を行い、空間モデル内に観測対象モデルを配置する。また、モデル合成部25は、自己アバターと他者アバターを空間モデル内に配置する。モデル合成部25は、観測対象モデルとアバターが空間モデル内に配置された合成モデルおよび視線モデルを示す合成モデル情報を情報処理装置30-0へ出力する。 The model synthesizing unit 25 performs a model synthesizing process and arranges the observation target model in the spatial model. Further, the model synthesis unit 25 arranges the self avatar and the other person's avatar in the spatial model. The model synthesis unit 25 outputs synthetic model information indicating the synthetic model in which the observation target model and the avatar are arranged in the spatial model and the line-of-sight model to the information processing device 30-0.

情報処理装置30-0は、第1の実施の形態と同様に、検出部31、推奨視点設定部32、操作部33、視点制御部34、推奨視点情報生成部35および視点画像生成部36を有している。 The information processing apparatus 30-0 includes the detection unit 31, the recommended viewpoint setting unit 32, the operation unit 33, the viewpoint control unit 34, the recommended viewpoint information generation unit 35, and the viewpoint image generation unit 36, as in the first embodiment. Have

検出部31は、観察者の姿勢と位置を検出して、検出結果を示す検出情報を視点制御部34へ出力する。 The detection unit 31 detects the posture and position of the observer, and outputs detection information indicating the detection result to the viewpoint control unit 34.

推奨視点設定部32は、自己アバターの視点である視点画像の再生時における推奨視点を、過去の再生時における他者アバターの位置と姿勢に基づいて設定する。推奨視点設定部32は、モデル生成装置20-bから供給された合成モデル情報で示された視線モデル、すなわち合成モデルを過去に再生したときの他者アバターの位置と姿勢の検出情報に基づいて生成された視点モデルに基づき、推奨視点を第1の実施の形態と同様にして設定する。推奨視点設定部32は、推奨視点を示す推奨視点情報を視点制御部34と推奨視点情報生成部35へ出力する。 The recommended viewpoint setting unit 32 sets a recommended viewpoint at the time of reproducing the viewpoint image which is the viewpoint of the self avatar, based on the position and posture of the other avatar at the time of past reproduction. The recommended viewpoint setting unit 32 is based on the line-of-sight model indicated by the synthetic model information supplied from the model generation device 20-b, that is, the detection information of the position and posture of the avatar of another person when the synthetic model is reproduced in the past. Based on the generated viewpoint model, the recommended viewpoint is set as in the first embodiment. The recommended viewpoint setting unit 32 outputs the recommended viewpoint information indicating the recommended viewpoint to the viewpoint control unit 34 and the recommended viewpoint information generation unit 35.

操作部33はユーザ操作に応じた操作信号を生成する。例えば操作部33は、視点を推奨視点に移動するユーザ操作に応じた操作信号を視点制御部34へ出力する。 The operation unit 33 generates an operation signal according to a user operation. For example, the operation unit 33 outputs an operation signal corresponding to a user operation of moving the viewpoint to the recommended viewpoint to the viewpoint control unit 34.

視点制御部34は、検出部31からの検出情報に基づき後述する視点画像生成部36を制御して、観察者に対応する自己アバターの視点で得られる仮想空間内の画像を生成させる。また、視点制御部34は、操作部33からの操作信号に応じて、推奨視点設定部32からの推奨視点情報に基づき後述する視点画像生成部36を制御して、推奨視点で得られる仮想空間内の画像を生成させる。さらに視点制御部34は、検出部31からの検出情報や視点を推奨視点とするユーザ指示をモデル生成装置20-bへ出力する。 The viewpoint control unit 34 controls a viewpoint image generation unit 36 described below based on the detection information from the detection unit 31 to generate an image in the virtual space obtained from the viewpoint of the self-avatar corresponding to the observer. In addition, the viewpoint control unit 34 controls a viewpoint image generation unit 36, which will be described later, based on the recommended viewpoint information from the recommended viewpoint setting unit 32 in response to an operation signal from the operation unit 33, and obtains a virtual space obtained from the recommended viewpoint. Generate an image inside. Furthermore, the viewpoint control unit 34 outputs the detection information from the detection unit 31 and a user instruction to use the viewpoint as the recommended viewpoint to the model generation device 20-b.

推奨視点情報生成部35は、推奨視点設定部32で設定された推奨視点に関する推奨視点情報を生成する。推奨視点情報生成部35は、推奨視点設定部32で設定された推奨視点を示す推奨視点情報を生成して視点画像生成部36へ出力する。また、推奨視点情報生成部35は、情報記憶部23に記憶されている推奨視点情報、すなわち合成モデルを過去に再生したときに他者アバターの位置と姿勢に基づいて設定された推奨視点を示す推奨視点情報を、合成モデルの再生と同期して用いてもよい。 The recommended viewpoint information generation unit 35 generates recommended viewpoint information regarding the recommended viewpoint set by the recommended viewpoint setting unit 32. The recommended viewpoint information generating unit 35 generates recommended viewpoint information indicating the recommended viewpoint set by the recommended viewpoint setting unit 32, and outputs the recommended viewpoint information to the viewpoint image generating unit 36. In addition, the recommended viewpoint information generation unit 35 indicates the recommended viewpoint information stored in the information storage unit 23, that is, the recommended viewpoint set based on the position and posture of the avatar of another person when the synthetic model is reproduced in the past. The recommended viewpoint information may be used in synchronization with the reproduction of the synthetic model.

視点画像生成部36は、視点制御部34からの制御信号に基づき、観察者に対応する自己アバターの視点で得られる仮想空間内の視点画像を生成する。また、視点画像生成部36は、生成した視点画像に推奨視点情報生成部35で生成された推奨視点情報を重畳させた画像信号を表示装置40-0へ出力する。 The viewpoint image generation unit 36 generates a viewpoint image in the virtual space obtained from the viewpoint of the self avatar corresponding to the observer, based on the control signal from the viewpoint control unit 34. Further, the viewpoint image generation unit 36 outputs an image signal in which the recommended viewpoint information generated by the recommended viewpoint information generation unit 35 is superimposed on the generated viewpoint image to the display device 40-0.

表示装置40-0としては、例えば観察者の頭部に装着された状態で利用されるヘッドマウントディスプレイが用いられる。表示装置40-0は、情報処理装置30-0で生成された画像信号に基づき、仮想空間内の自己アバターの視点画像を表示する。また、視点画像に推奨視点情報が重畳されており、推奨視点情報によって推奨視点を観察者が判別できるようにする。 As the display device 40-0, for example, a head mounted display used while being attached to the observer's head is used. The display device 40-0 displays the viewpoint image of the self avatar in the virtual space based on the image signal generated by the information processing device 30-0. In addition, recommended viewpoint information is superimposed on the viewpoint image so that the observer can distinguish the recommended viewpoint from the recommended viewpoint information.

<5.第2の実施の形態の動作>
次に第2の実施の形態の動作について説明する。図12は、第2の実施の形態の動作を例示したフローチャートである。システム10はステップST31で表示画像の生成処理のループを開始する。
<5. Operation of Second Embodiment>
Next, the operation of the second embodiment will be described. FIG. 12 is a flowchart illustrating the operation of the second embodiment. The system 10 starts a loop of the display image generation process in step ST31.

ステップST32aでシステム10は観察者の位置と姿勢を検出する。システム10の情報処理装置30-0は、観察者の位置と姿勢を検出してステップST33aに進む。 In step ST32a, the system 10 detects the position and orientation of the observer. The information processing device 30-0 of the system 10 detects the position and orientation of the observer and proceeds to step ST33a.

ステップST33aでシステム10はアバターを生成する。システム10のモデル生成装置20-bは、仮想空間における観察者を示す自己アバターを生成してステップST34aに進む。 In step ST33a, the system 10 creates an avatar. The model generation device 20-b of the system 10 generates a self avatar showing an observer in the virtual space, and proceeds to step ST34a.

ステップST34aでシステム10は視線モデルを生成する。システム10のモデル生成装置20-bは、観察者の位置と姿勢に基づき、自己アバターの視線を示す視線モデルを生成してステップST35に進む。 In step ST34a, the system 10 generates a line-of-sight model. The model generation device 20-b of the system 10 generates a line-of-sight model showing the line of sight of the self-avatar based on the position and orientation of the observer, and proceeds to step ST35.

ステップST32bでシステム10は記憶されている検出情報を取得する。システム10のモデル生成装置20-bは、過去に合成モデルを再生したときに検出されて記憶された検出情報であって、後述するステップST35で生成する合成モデルに同期した検出情報を取得してステップST33bに進む。 In step ST32b, the system 10 acquires the stored detection information. The model generation device 20-b of the system 10 obtains the detection information that is detected and stored when the synthetic model is reproduced in the past and is synchronized with the synthetic model generated in step ST35 described later. It proceeds to step ST33b.

ステップST33bでシステム10はアバターを生成する。システム10のモデル生成装置20-bは、仮想空間における他者を示す他者アバターを生成してステップST34bに進む。 In step ST33b, the system 10 creates an avatar. The model generation device 20-b of the system 10 generates another person's avatar indicating the other person in the virtual space, and proceeds to step ST34b.

ステップST34bでシステム10は視線モデルを生成する。システム10のモデル生成装置20-bは、他者の位置と姿勢に基づき、他者アバターの視線を示す視線モデルを生成してステップST35に進む。 In step ST34b, the system 10 generates a line-of-sight model. The model generation device 20-b of the system 10 generates a line-of-sight model indicating the line-of-sight of the avatar of another person based on the position and posture of the other person, and proceeds to step ST35.

ステップST32cでシステム10は観察対象モデルを生成する。システム10のモデル生成装置20-bは、観察者や他者によって観察される三次元の観察対象モデルを生成してステップST33cに進む。 In step ST32c, the system 10 generates an observation target model. The model generation device 20-b of the system 10 generates a three-dimensional observation target model observed by an observer or another person, and proceeds to step ST33c.

ステップST33cでシステム10は空間モデルを生成する。システム10のモデル生成装置20-bは、観察対象モデルおよび自己アバターと他者アバターを配置する仮想空間を示す空間モデルを生成してステップST35に進む。 In step ST33c, the system 10 generates a spatial model. The model generation device 20-b of the system 10 generates a space model indicating a virtual space in which an observation target model and a self avatar and another avatar are arranged, and proceeds to step ST35.

ステップST35でシステム10はモデル合成処理を行う。システム10のモデル生成装置20-bは、仮想空間を示す空間モデル内に観察対象モデルと観察者および他者の位置に応じて自己アバターと他者アバターを配置する。さらに、モデル生成装置20-bは、観察者および他者の姿勢に応じて自己アバターと他者アバターの姿勢を設定して合成モデルを生成してステップST36に進む。 In step ST35, the system 10 performs model synthesis processing. The model generation device 20-b of the system 10 arranges the self avatar and the other person's avatar in the space model showing the virtual space according to the positions of the observation target model, the observer, and the other person. Further, the model generation device 20-b sets the postures of the self avatar and the avatar of the other person in accordance with the postures of the observer and the other person, generates a synthetic model, and proceeds to step ST36.

ステップST36でシステム10は視点画像を生成する。システム10の情報処理装置30-0は、ステップST35で生成された合成モデルと観察者の位置と姿勢に基づき、自己アバターの視点である視点画像(観察者視点画像)を生成する。さらに、情報処理装置30-0は、他者の視線モデルに基づき推奨視点を設定して、推奨視点に関する推奨視点情報を視点画像に重畳した表示画像の画像信号を生成してステップST37に進み、表示画像の生成処理のループを終了する。また、ステップST31〜ステップST37の処理を繰り返し行うことで、非リアルタイム再生を行う。 In step ST36, the system 10 generates a viewpoint image. The information processing device 30-0 of the system 10 generates a viewpoint image (observer viewpoint image) that is the viewpoint of the self-avatar based on the composite model generated in step ST35 and the position and orientation of the observer. Further, the information processing device 30-0 sets the recommended viewpoint based on the line-of-sight model of the other person, generates the image signal of the display image in which the recommended viewpoint information regarding the recommended viewpoint is superimposed on the viewpoint image, and proceeds to step ST37. The loop of the display image generation processing is ended. In addition, non-real time reproduction is performed by repeating the processing of steps ST31 to ST37.

次に、モデル生成装置の動作について説明する。図13は、モデル生成装置の動作を例示したフローチャートであり、位置や姿勢の変化により検出情報が変更された場合にアバターを更新する場合を例示している。 Next, the operation of the model generation device will be described. FIG. 13 is a flowchart exemplifying the operation of the model generation device, and illustrates the case where the avatar is updated when the detection information is changed due to a change in position or posture.

ステップST41でモデル生成装置20-bは観察対象モデルと空間モデルを生成する。モデル生成装置20-bは、観察者と他者が観察する観察対象モデルと、対象物体モデルが配置される三次元の仮想空間を示す空間モデルを生成してステップST42に進む。 In step ST41, the model generation device 20-b generates an observation target model and a spatial model. The model generation device 20-b generates an observation target model observed by an observer and another person, and a spatial model indicating a three-dimensional virtual space in which the target object model is arranged, and proceeds to step ST42.

ステップST42でモデル生成装置20-bは観察者の検出情報の取得を開始する。モデル生成装置20-bは情報処理装置30-0から供給される観察者の検出情報の取得を開始してステップST43に進む。 In step ST42, the model generation device 20-b starts to acquire the detection information of the observer. The model generation device 20-b starts acquisition of the observer detection information supplied from the information processing device 30-0, and proceeds to step ST43.

ステップST43でモデル生成装置20-bは自己アバター生成処理を行う。モデル生成装置20-bは、情報処理装置30-0を利用する観察者に対応した自己アバターと自己アバターの視線を示す視線モデルを生成してステップST44に進む。 In step ST43, the model generation device 20-b performs a self-avatar generation process. The model generation device 20-b generates a self-avatar corresponding to an observer who uses the information processing device 30-0 and a line-of-sight model indicating the line-of-sight of the self-avatar, and proceeds to step ST44.

ステップST44でモデル生成装置20-bは記憶されている検出情報を取得してステップST45に進む。 In step ST44, the model generation device 20-b acquires the stored detection information and proceeds to step ST45.

ステップST45でモデル生成装置20-bは他者アバター生成処理を行う。モデル生成装置20-bは、後述するステップST48で生成する合成モデルに同期した検出情報に基づき、他者アバターと視点モデルを生成してステップST46に進む。 In step ST45, the model generation device 20-b performs another person's avatar generation process. The model generation device 20-b generates another person's avatar and viewpoint model based on the detection information synchronized with the synthetic model generated in step ST48 described later, and proceeds to step ST46.

ステップST46でモデル生成装置20-bは観察者の検出情報が変更されたか判別する。モデル生成装置20-bは、観察者の位置や姿勢が変化して新たな検出情報を取得した場合にステップST47に進み、検出情報が変更されていない場合はステップST48に進む。 In step ST46, the model generation device 20-b determines whether the detection information of the observer has been changed. The model generation device 20-b proceeds to step ST47 when the observer's position or posture is changed and acquires new detection information, and proceeds to step ST48 if the detection information is not changed.

ステップST47でモデル生成装置20-bはアバター更新処理を行う。モデル生成装置20-bは、変更後の検出情報に基づき自己アバターの位置や姿勢を調整してステップST48に進む。 In step ST47, the model generation device 20-b performs an avatar update process. The model generation device 20-b adjusts the position and posture of the self-avatar based on the changed detection information, and proceeds to step ST48.

ステップST48でモデル生成装置20-bはモデル合成処理を行う。モデル生成装置20-bは、ステップST41で生成した空間モデルに観察対象モデルを配置する。また、モデル生成装置20-bは、ステップST45で生成した他者アバターをステップST44で取得した検出情報に基づく位置や姿勢で配置する。さらに、モデル生成装置20-bは、ステップST43で生成した自己アバターをステップST42で取得された検出情報に基づく位置や姿勢で配置する。モデル生成装置20-bは、空間モデルに観測対象モデルと自己アバターと他者アバターが配置された合成モデルを生成してステップST49に進む。 In step ST48, the model generation device 20-b performs model synthesis processing. The model generation device 20-b arranges the observation target model in the spatial model generated in step ST41. In addition, the model generation device 20-b arranges the other person's avatar generated in step ST45 at the position and posture based on the detection information acquired in step ST44. Further, the model generation device 20-b arranges the self avatar generated in step ST43 in the position and posture based on the detection information acquired in step ST42. The model generation device 20-b generates a synthetic model in which the observation target model, the self avatar, and the avatar of another person are arranged in the spatial model, and proceeds to step ST49.

ステップST49でモデル生成装置20-bは合成モデル情報を出力する。モデル生成装置20-bはステップST18で生成した合成モデルと他者の視線モデルを示す合成モデル情報を情報処理装置30-0に出力する。 In step ST49, the model generation device 20-b outputs the synthetic model information. The model generation device 20-b outputs the synthetic model generated in step ST18 and the synthetic model information indicating the line-of-sight model of another person to the information processing device 30-0.

情報処理装置30-0は、第1の実施の形態と同様に図6に例示したフローチャートの処理を行い、自己アバターの視点の視点画像と推奨視点情報を含む表示画像の画像信号を生成して表示装置40-0へ出力する。また、情報処理装置30-0は、推奨視点への移動操作が行われた場合、推奨視点に対応する検出情報を生成してモデル生成装置20-bへ出力する。また、情報記憶部23に合成モデルを過去に再生したときの推奨視点情報が記憶されている場合、合成モデルの再生位置に同期した推奨視点情報を含めて合成モデル情報をモデル生成装置20-bから情報処理装置30-0に供給すれば、情報処理装置30-0は、推奨視点情報を生成する必要がなく、情報処理装置30-0の負荷を軽減できる。 The information processing device 30-0 performs the process of the flowchart illustrated in FIG. 6 as in the first embodiment to generate the image signal of the display image including the viewpoint image of the viewpoint of the self avatar and the recommended viewpoint information. Output to the display device 40-0. When the moving operation to the recommended viewpoint is performed, the information processing device 30-0 generates detection information corresponding to the recommended viewpoint and outputs the detection information to the model generation device 20-b. If the information storage unit 23 stores the recommended viewpoint information when the synthetic model is reproduced in the past, the synthetic model information including the recommended viewpoint information synchronized with the reproduction position of the synthetic model is generated by the model generation device 20-b. If the information processing apparatus 30-0 supplies the information to the information processing apparatus 30-0, the information processing apparatus 30-0 does not need to generate the recommended viewpoint information, and the load on the information processing apparatus 30-0 can be reduced.

このように、第2の実施の形態によれば、過去に合成モデルが再生されたときの検出情報を用いることで、その後、合成モデルを非リアルタイム再生するときに他者が含まれていなくとも、推奨視点情報が観察者に対して提示されるので、他者がいない場合でも第1の実施の形態と同様な効果を得ることができる。 As described above, according to the second embodiment, by using the detection information when the synthetic model is reproduced in the past, even if the other person is not included when the synthetic model is subsequently reproduced in non-real time. Since the recommended viewpoint information is presented to the observer, the same effect as that of the first embodiment can be obtained even when there is no other person.

<6.変形例>
ところで、モデル生成装置20や情報処理装置30は、図3や図11に示す構成に限られない。例えば、モデル生成装置の構成あるいは一部の構成を情報処理装置に設けてもよく、情報処理装置の構成の一部をモデル生成装置に設けてもよい。
<6. Modification>
By the way, the model generation device 20 and the information processing device 30 are not limited to the configurations shown in FIGS. 3 and 11. For example, the configuration of the model generation device or a part of the configuration may be provided in the information processing device, or a part of the configuration of the information processing device may be provided in the model generation device.

例えば、推奨視点設定部32をモデル生成装置20-a(20-b)に設けて、推奨視点を示す情報を合成モデル情報に含めるようにすれば、情報処理装置の処理を軽減できるだけでなく、情報処理装置毎に推奨視点設定部を設ける必要がない。 For example, if the recommended viewpoint setting unit 32 is provided in the model generation device 20-a (20-b) and the information indicating the recommended viewpoint is included in the synthetic model information, not only the processing of the information processing device can be reduced, but also It is not necessary to provide a recommended viewpoint setting unit for each information processing device.

また、情報処理装置はユーザ毎に(自己と他者で個々に)設けられていなくともよい。例えば検出部31は、ユーザ毎の位置や姿勢を検出して、視点制御部34は、ユーザ毎の視点画像等を示す表示画像の画像信号を視点画像生成部36で生成するように制御する。さらに、視点画像生成部36は、生成したユーザ毎の画像信号を、ユーザ毎に設けられた表示装置に出力する。このような構成とすれば、システム10の構成を簡易にできる。 Further, the information processing device does not have to be provided for each user (individually and individually for each user). For example, the detection unit 31 detects the position and orientation of each user, and the viewpoint control unit 34 controls the viewpoint image generation unit 36 to generate the image signal of the display image indicating the viewpoint image of each user. Further, the viewpoint image generation unit 36 outputs the generated image signal for each user to the display device provided for each user. With such a configuration, the configuration of the system 10 can be simplified.

モデル生成装置20-bの情報記憶部23には、検出情報だけでなく推奨視点情報を時間情報と共に記憶すれば、合成モデル情報の非リアルタイム再生時に、情報処理装置30-0の推奨視点情報生成部35は、過去の再生時における他者アバターの位置と姿勢に基づいて設定された推奨視点を再生位置と共に示す情報を推奨視点情報として生成できる。したがって、再生位置と推奨視点の関係を観察者に提示できるようになる。 If not only the detection information but also the recommended viewpoint information is stored in the information storage unit 23 of the model generation device 20-b together with the time information, the recommended viewpoint information generation of the information processing device 30-0 is performed during the non-real time reproduction of the synthetic model information. The unit 35 can generate, as the recommended viewpoint information, information indicating the recommended viewpoint set based on the position and posture of the avatar of another person at the time of the past reproduction together with the reproduction position. Therefore, the relationship between the reproduction position and the recommended viewpoint can be presented to the observer.

図14は、再生位置と推奨視点の関係を観察者に提示する場合の動作例を示している。仮想空間を示す空間モデルVSでは、図14の(a)に示すように、観察対象モデルOBと自己アバターMA-0が、観察者の位置や姿勢に応じて設けられている。情報処理装置30-0は、自己アバターMA-0の視点である図14の(b)に示す視点画像P0を生成する。また、情報処理装置30-0は、異なる時刻に設定された推奨視点を判別できるように推奨視点情報を設ける。例えば、合成モデルの再生が時点Tsから時点Teまで行われる場合、情報処理装置30-0は、図14の(b)に示すように、時点Tsから時点Teまでの期間を示すスライダー表示SLを設ける。また、合成モデルの再生が過去に行われて、時点T1のときに他者アバターMA-1の視点が推奨視点に設定されており、時点T2のときに他者アバターMA-2の視点が推奨視点に設定されている場合、情報処理装置30-0は、スライダー表示SLにおける時点T1の位置に他者アバターMA-1の視点画像PL1を推奨視点情報として設ける。また、情報処理装置30-0は、時点T2の位置に他者アバターMA-2の視点画像PL2を推奨視点情報として設ける。なお、時点Tgは、現在の再生位置を示している。このように、推奨視点情報を時間情報と共に記憶すれば、合成モデルの非リアルタイム再生時に、再生位置と推奨視点情報の関係を観察者に提示できるようになる。 FIG. 14 shows an operation example when presenting the relationship between the reproduction position and the recommended viewpoint to the observer. In the space model VS showing the virtual space, as shown in FIG. 14A, an observation target model OB and a self avatar MA-0 are provided according to the position and posture of the observer. The information processing device 30-0 generates the viewpoint image P0 shown in (b) of FIG. 14 which is the viewpoint of the self-avatar MA-0. The information processing device 30-0 also provides recommended viewpoint information so that the recommended viewpoints set at different times can be discriminated. For example, when the reproduction of the combined model is performed from the time Ts to the time Te, the information processing device 30-0 displays the slider display SL indicating the period from the time Ts to the time Te, as shown in (b) of FIG. Set up. In addition, since the reproduction of the composite model has been performed in the past, the viewpoint of the other person's avatar MA-1 is set to the recommended viewpoint at the time point T1, and the viewpoint of the other person's avatar MA-2 is recommended at the time point T2. When the viewpoint is set, the information processing device 30-0 provides the viewpoint image PL1 of the other person's avatar MA-1 at the position of the time point T1 on the slider display SL as recommended viewpoint information. Further, the information processing device 30-0 provides the viewpoint image PL2 of the other person's avatar MA-2 at the position of time T2 as recommended viewpoint information. The time point Tg indicates the current reproduction position. As described above, if the recommended viewpoint information is stored together with the time information, it becomes possible to present the relationship between the reproduction position and the recommended viewpoint information to the observer during the non-real time reproduction of the synthetic model.

また、本技術の動作は、図4,図5,図6,図12,図13に示すフローチャートの処理順序に限られるものではない。例えば観測対象モデルと空間モデルの生成はアバターの生成後であってもよい。さらに、上述の図4や図12に示すフローチャートにおける並列処理は、時間順に行うようにしてもよい。 Further, the operation of the present technology is not limited to the processing order of the flowcharts shown in FIGS. 4, 5, 6, 12, and 13. For example, the observation target model and the spatial model may be generated after the avatar is generated. Further, the parallel processing in the flowcharts shown in FIGS. 4 and 12 may be performed in time order.

明細書中において説明した一連の処理はハードウェア、またはソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させる。または、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。 The series of processes described in the specification can be executed by hardware, software, or a combined configuration of both. When executing processing by software, a program recording a processing sequence is installed in a memory in a computer incorporated in dedicated hardware and executed. Alternatively, the program can be installed and executed in a general-purpose computer that can execute various processes.

例えば、プログラムは記録媒体としてのハードディスクやSSD(Solid State Drive)、ROM(Read Only Memory)に予め記録しておくことができる。あるいは、プログラムはフレキシブルディスク、CD−ROM(Compact Disc Read Only Memory),MO(Magneto optical)ディスク,DVD(Digital Versatile Disc)、BD(Blu-Ray Disc(登録商標))、磁気ディスク、半導体メモリカード等のリムーバブル記録媒体に、一時的または永続的に格納(記録)しておくことができる。このようなリムーバブル記録媒体は、いわゆるパッケージソフトウェアとして提供することができる。 For example, the program can be recorded in advance in a hard disk, SSD (Solid State Drive), or ROM (Read Only Memory) as a recording medium. Alternatively, the program is a flexible disk, a CD-ROM (Compact Disc Read Only Memory), an MO (Magneto optical) disc, a DVD (Digital Versatile Disc), a BD (Blu-Ray Disc (registered trademark)), a magnetic disc, a semiconductor memory card. It can be temporarily or permanently stored (recorded) in a removable recording medium such as. Such a removable recording medium can be provided as so-called package software.

また、プログラムは、リムーバブル記録媒体からコンピュータにインストールする他、ダウンロードサイトからLAN(Local Area Network)やインターネット等のネットワークを介して、コンピュータに無線または有線で転送してもよい。コンピュータでは、そのようにして転送されてくるプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることができる。 In addition to installing the program from the removable recording medium to the computer, the program may be wirelessly or wired transferred from the download site to the computer via a network such as a LAN (Local Area Network) or the Internet. In the computer, the program thus transferred can be received and installed in a recording medium such as a built-in hard disk.

なお、本明細書に記載した効果はあくまで例示であって限定されるものではなく、記載されていない付加的な効果があってもよい。また、本技術は、上述した技術の実施の形態に限定して解釈されるべきではない。この技術の実施の形態は、例示という形態で本技術を開示しており、本技術の要旨を逸脱しない範囲で当業者が実施の形態の修正や代用をなし得ることは自明である。すなわち、本技術の要旨を判断するためには、特許請求の範囲を参酌すべきである。 It should be noted that the effects described in the present specification are merely examples and are not limited, and there may be additional effects not described. In addition, the present technology should not be construed as being limited to the above-described embodiments of the technology. The embodiments of this technology disclose the present technology in the form of exemplification, and it is obvious that a person skilled in the art can modify or substitute the embodiments without departing from the gist of the present technology. That is, in order to determine the gist of the present technology, the claims should be taken into consideration.

また、本技術の情報処理装置は以下のような構成も取ることができる。
(1) 仮想空間に設けられた自己アバターの視点の視点画像に、前記仮想空間に設けられた他者アバターの位置と姿勢に基づいて生成した推奨視点情報を含める視点画像生成部
を備える情報処理装置。
(2) 他者アバターの位置と姿勢に基づいて推奨視点を設定する推奨視点設定部と、
前記推奨視点設定部で設定された推奨視点を示す前記推奨視点情報を生成する推奨視点情報生成部を備える(1)に記載の情報処理装置。
(3) 前記推奨視点設定部は、前記自己アバターの視点である視点画像の再生時における前記他者アバターの位置と姿勢に基づいて前記推奨視点を設定する(2)に記載の情報処理装置。
(4) 前記推奨視点設定部は、前記自己アバターの視点である視点画像の再生時における前記推奨視点を、過去の再生時における前記他者アバターの位置と姿勢に基づいて設定する(2)または(3)に記載の情報処理装置。
(5) 前記推奨視点設定部は、前記推奨視点を複数設定した場合に前記推奨視点の優先度を設定する(2)乃至(4)のいずれかに記載の情報処理装置。
(6) 前記推奨視点設定部は、前記他者アバターの属性を用いて前記推奨視点を設定する(2)乃至(5)のいずれかに記載の情報処理装置。
(7) 前記推奨視点情報生成部は、前記推奨視点の縮小画像を前記推奨視点情報として生成する(2)乃至(6)のいずれかに記載の情報処理装置。
(8) 前記推奨視点情報生成部は、前記推奨視点の方向を示す視線方向表示を前記推奨視点情報として生成する(2)乃至(7)のいずれかに記載の情報処理装置。
(9) 前記推奨視点情報生成部は、過去の再生時における前記他者アバターの位置と姿勢に基づいて設定された推奨視点を再生位置と共に示す情報を前記推奨視点情報として生成する(2)乃至(8)のいずれかに記載の情報処理装置。
(10) 前記推奨視点情報生成部は、前記過去の再生時に生成されて記憶されている前記推奨視点情報を用いる(2)乃至(8)のいずれかに記載の情報処理装置。
(11) ユーザ操作を受け付ける操作部をさらに備え、
前記ユーザ操作に応じて前記自己アバターの視点の視点画像を、前記推奨視点設定部で設定された推奨視点の視点画像に切り替える(2)乃至(10)のいずれかに記載の情報処理装置。
(12) ユーザの位置と姿勢を検出する検出部をさらに備え、
前記自己アバターの視点は、前記検出部の検出結果に基づいて判別する(1)乃至(11)のいずれかに記載の情報処理装置。
Further, the information processing device of the present technology can also have the following configurations.
(1) Information processing including a viewpoint image generation unit that includes recommended viewpoint information generated based on the position and orientation of another avatar provided in the virtual space in the viewpoint image of the viewpoint of the self-avatar provided in the virtual space apparatus.
(2) A recommended viewpoint setting unit that sets a recommended viewpoint based on the position and posture of the avatar of another person,
The information processing apparatus according to (1), further including a recommended viewpoint information generation unit that generates the recommended viewpoint information indicating the recommended viewpoint set by the recommended viewpoint setting unit.
(3) The information processing device according to (2), wherein the recommended viewpoint setting unit sets the recommended viewpoint based on a position and a posture of the other person's avatar at the time of reproducing a viewpoint image which is the viewpoint of the self avatar.
(4) The recommended viewpoint setting unit sets the recommended viewpoint at the time of reproducing the viewpoint image which is the viewpoint of the self avatar, based on the position and posture of the other avatar at the time of past reproduction (2) or The information processing device according to (3).
(5) The information processing device according to any one of (2) to (4), wherein the recommended viewpoint setting unit sets the priority of the recommended viewpoint when a plurality of recommended viewpoints are set.
(6) The information processing device according to any one of (2) to (5), wherein the recommended viewpoint setting unit sets the recommended viewpoint using the attribute of the other person's avatar.
(7) The information processing device according to any one of (2) to (6), wherein the recommended viewpoint information generation unit generates a reduced image of the recommended viewpoint as the recommended viewpoint information.
(8) The information processing device according to any one of (2) to (7), wherein the recommended viewpoint information generation unit generates a line-of-sight direction display indicating a direction of the recommended viewpoint as the recommended viewpoint information.
(9) The recommended viewpoint information generation unit generates, as the recommended viewpoint information, information indicating, together with a reproduction position, a recommended viewpoint set based on the position and posture of the avatar of the other person at the time of past reproduction. The information processing device according to any one of (8).
(10) The information processing apparatus according to any one of (2) to (8), wherein the recommended viewpoint information generation unit uses the recommended viewpoint information generated and stored during the past reproduction.
(11) An operation unit for receiving a user operation is further provided,
The information processing apparatus according to any one of (2) to (10), wherein the viewpoint image of the viewpoint of the self-avatar is switched to the viewpoint image of the recommended viewpoint set by the recommended viewpoint setting unit according to the user operation.
(12) A detection unit for detecting the position and orientation of the user is further provided,
The information processing apparatus according to any one of (1) to (11), wherein the viewpoint of the self-avatar is determined based on the detection result of the detection unit.

10・・・システム
20,20-a,20-b・・・モデル生成装置
21,23・・・情報記憶部
22,24・・・モデル生成部
25・・・モデル合成部
30,30-0〜30-n・・・情報処理装置
31・・・検出部
32・・・推奨視点設定部
33・・・操作部
34・・・視点制御部
35・・・推奨視点情報生成部
36・・・視点画像生成部
40-0〜40-n・・・表示装置
10... System 20, 20-a, 20-b... Model generation device 21, 23... Information storage unit 22, 24... Model generation unit 25... Model synthesis unit 30, 30-0 -30-n... Information processing device 31... Detection unit 32... Recommended viewpoint setting unit 33... Operation unit 34... Viewpoint control unit 35... Recommended viewpoint information generation unit 36... Viewpoint image generation unit 40-0 to 40-n... Display device

Claims (13)

仮想空間に設けられた自己アバターの視点の視点画像に、前記仮想空間に設けられた他者アバターの位置と姿勢に基づいて生成した推奨視点情報を含める視点画像生成部
を備える情報処理装置。
An information processing apparatus comprising: a viewpoint image generation unit that includes recommended viewpoint information generated based on a position and a posture of another avatar provided in the virtual space in a viewpoint image of a viewpoint of a self-avatar provided in the virtual space.
他者アバターの位置と姿勢に基づいて推奨視点を設定する推奨視点設定部と、
前記推奨視点設定部で設定された推奨視点を示す前記推奨視点情報を生成する推奨視点情報生成部を備える
請求項1に記載の情報処理装置。
A recommended viewpoint setting unit that sets a recommended viewpoint based on the position and posture of the avatar of another person,
The information processing apparatus according to claim 1, further comprising: a recommended viewpoint information generation unit that generates the recommended viewpoint information indicating the recommended viewpoint set by the recommended viewpoint setting unit.
前記推奨視点設定部は、前記自己アバターの視点である視点画像の再生時における前記他者アバターの位置と姿勢に基づいて前記推奨視点を設定する
請求項2に記載の情報処理装置。
The information processing apparatus according to claim 2, wherein the recommended viewpoint setting unit sets the recommended viewpoint based on a position and a posture of the other person's avatar when the viewpoint image which is the viewpoint of the self avatar is reproduced.
前記推奨視点設定部は、前記自己アバターの視点である視点画像の再生時における前記推奨視点を、過去の再生時における前記他者アバターの位置と姿勢に基づいて設定する
請求項2に記載の情報処理装置。
The information according to claim 2, wherein the recommended viewpoint setting unit sets the recommended viewpoint at the time of reproducing the viewpoint image which is the viewpoint of the self-avatar based on the position and the posture of the other avatar at the time of past reproduction. Processing equipment.
前記推奨視点設定部は、前記推奨視点を複数設定した場合に前記推奨視点の優先度を設定する
請求項2に記載の情報処理装置。
The information processing apparatus according to claim 2, wherein the recommended viewpoint setting unit sets the priority of the recommended viewpoint when a plurality of recommended viewpoints are set.
前記推奨視点設定部は、前記他者アバターの属性を用いて前記推奨視点を設定する
請求項2に記載の情報処理装置。
The information processing apparatus according to claim 2, wherein the recommended viewpoint setting unit sets the recommended viewpoint using an attribute of the other person's avatar.
前記推奨視点情報生成部は、前記推奨視点の縮小画像を前記推奨視点情報として生成する
請求項2に記載の情報処理装置。
The information processing apparatus according to claim 2, wherein the recommended viewpoint information generation unit generates a reduced image of the recommended viewpoint as the recommended viewpoint information.
前記推奨視点情報生成部は、前記推奨視点の方向を示す視線方向表示を前記推奨視点情報として生成する
請求項2に記載の情報処理装置。
The information processing apparatus according to claim 2, wherein the recommended viewpoint information generation unit generates a line-of-sight direction display indicating a direction of the recommended viewpoint as the recommended viewpoint information.
前記推奨視点情報生成部は、過去の再生時における前記他者アバターの位置と姿勢に基づいて設定された推奨視点を再生位置と共に示す情報を前記推奨視点情報として生成する
請求項2に記載の情報処理装置。
The information according to claim 2, wherein the recommended viewpoint information generation unit generates, as the recommended viewpoint information, information indicating, together with a reproduction position, a recommended viewpoint set based on a position and a posture of the other person's avatar at the time of past reproduction. Processing equipment.
前記推奨視点情報生成部は、過去の再生時に生成されて記憶されている前記推奨視点情報を用いる
請求項2に記載の情報処理装置。
The information processing apparatus according to claim 2, wherein the recommended viewpoint information generation unit uses the recommended viewpoint information generated and stored at the time of past reproduction.
ユーザ操作を受け付ける操作部をさらに備え、
前記ユーザ操作に応じて前記自己アバターの視点の視点画像を、前記推奨視点設定部で設定された推奨視点の視点画像に切り替える
請求項2に記載の情報処理装置。
An operation unit for accepting a user operation is further provided,
The information processing apparatus according to claim 2, wherein the viewpoint image of the viewpoint of the self-avatar is switched to the viewpoint image of the recommended viewpoint set by the recommended viewpoint setting unit according to the user operation.
ユーザの位置と姿勢を検出する検出部をさらに備え、
前記自己アバターの視点は、前記検出部の検出結果に基づいて判別する
請求項1に記載の情報処理装置。
Further comprising a detection unit for detecting the position and orientation of the user,
The information processing apparatus according to claim 1, wherein the viewpoint of the self-avatar is determined based on the detection result of the detection unit.
視点画像生成部によって、仮想空間に設けられた自己アバターの視点の視点画像に、前記仮想空間に設けられた他者アバターの位置と視線に基づいて生成した推奨視点情報を含めること
を含む情報処理方法。
Information processing including inclusion of recommended viewpoint information generated based on the position and line of sight of another avatar provided in the virtual space in the viewpoint image of the viewpoint of the self-avatar provided in the virtual space by the viewpoint image generation unit Method.
JP2019020428A 2019-02-07 2019-02-07 Information processing apparatus, information processing method, and program Pending JP2020129176A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019020428A JP2020129176A (en) 2019-02-07 2019-02-07 Information processing apparatus, information processing method, and program
PCT/JP2019/043871 WO2020161975A1 (en) 2019-02-07 2019-11-08 Information processing device, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019020428A JP2020129176A (en) 2019-02-07 2019-02-07 Information processing apparatus, information processing method, and program

Publications (1)

Publication Number Publication Date
JP2020129176A true JP2020129176A (en) 2020-08-27

Family

ID=71947973

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019020428A Pending JP2020129176A (en) 2019-02-07 2019-02-07 Information processing apparatus, information processing method, and program

Country Status (2)

Country Link
JP (1) JP2020129176A (en)
WO (1) WO2020161975A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021010749A (en) * 2020-10-01 2021-02-04 株式会社大一商会 Game machine
WO2024101590A1 (en) * 2022-11-10 2024-05-16 삼성전자주식회사 Electronic device for acquiring location of virtual object and method thereof

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016071900A (en) * 2014-09-30 2016-05-09 キヤノンマーケティングジャパン株式会社 Information processing system and control method of the same, and program
JP6615732B2 (en) * 2016-10-31 2019-12-04 株式会社ソニー・インタラクティブエンタテインメント Information processing apparatus and image generation method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021010749A (en) * 2020-10-01 2021-02-04 株式会社大一商会 Game machine
WO2024101590A1 (en) * 2022-11-10 2024-05-16 삼성전자주식회사 Electronic device for acquiring location of virtual object and method thereof

Also Published As

Publication number Publication date
WO2020161975A1 (en) 2020-08-13

Similar Documents

Publication Publication Date Title
US8624924B2 (en) Portable immersive environment using motion capture and head mounted display
US8615383B2 (en) Immersive collaborative environment using motion capture, head mounted display, and cave
CN103249461B (en) Be provided for the system that handheld device can catch the video of interactive application
US7773098B2 (en) Virtual reality presentation apparatus and method
NL2002841C2 (en) Immersive collaborative environment using motion capture, head mounted display, and cave.
US20030227453A1 (en) Method, system and computer program product for automatically creating an animated 3-D scenario from human position and path data
WO2020161975A1 (en) Information processing device, information processing method, and program
KR20150014988A (en) Capturing views and movements of actors performing within generated scenes
JP2019012965A (en) Video control method, video control device, and video control program
US20140188669A1 (en) Augmented reality system and method
US12032169B2 (en) Spectator view of virtual and physical objects
EP3113074A1 (en) Apparatus, method and computer program
EP3113483A2 (en) Apparatus, method and computer program
US11778283B2 (en) Video distribution system for live distributing video containing animation of character object generated based on motion of actors
JP2010240185A (en) Apparatus for supporting motion learning
US20220277520A1 (en) Information processing apparatus, information processing method, and storage medium
CN109155836A (en) Transcriber, reproducting method, information generation device and information generating method
GB2546589A (en) Virtual training system
JP2020013035A (en) Training device, training system, training method and program
TWI478099B (en) Learning-based visual attention prediction system and mathod thereof
JP4371863B2 (en) Playback apparatus and method
JP6398938B2 (en) Projection control apparatus and program
JP2016158702A (en) Three-dimensional image processing system, three-dimensional image processing device, and three-dimensional image processing method
JP5928279B2 (en) Exercise support apparatus and program
WO2021192931A1 (en) Information processing device, information processing method, and information processing program