JP6615732B2 - Information processing apparatus and image generation method - Google Patents

Information processing apparatus and image generation method Download PDF

Info

Publication number
JP6615732B2
JP6615732B2 JP2016213117A JP2016213117A JP6615732B2 JP 6615732 B2 JP6615732 B2 JP 6615732B2 JP 2016213117 A JP2016213117 A JP 2016213117A JP 2016213117 A JP2016213117 A JP 2016213117A JP 6615732 B2 JP6615732 B2 JP 6615732B2
Authority
JP
Japan
Prior art keywords
user
character
image
virtual space
operation information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016213117A
Other languages
Japanese (ja)
Other versions
JP2018073172A5 (en
JP2018073172A (en
Inventor
尚亨 椚田
正和 林
稔 橋本
康太郎 田島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Priority to JP2016213117A priority Critical patent/JP6615732B2/en
Priority to PCT/JP2017/038377 priority patent/WO2018079557A1/en
Publication of JP2018073172A publication Critical patent/JP2018073172A/en
Publication of JP2018073172A5 publication Critical patent/JP2018073172A5/ja
Application granted granted Critical
Publication of JP6615732B2 publication Critical patent/JP6615732B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/212Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Optics & Photonics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Cardiology (AREA)
  • General Health & Medical Sciences (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、ヘッドマウントディスプレイなどの表示装置にアプリケーションの画像データを出力する技術または表示装置に提供するための画像データを生成する技術に関する。   The present invention relates to a technique for outputting image data of an application to a display device such as a head-mounted display or a technique for generating image data to be provided to a display device.

特許文献1は、自分と他のユーザとが3次元仮想現実空間を共有するシステムを開示する。このシステムにおいて自分のクライアント端末は、仮想現実空間を構成する基本オブジェクトに関するデータを情報サーバ端末から提供され、また他人のアバタに関するデータを共有サーバ端末から提供されることで、自分のアバタの視点と位置から見える仮想現実空間を表示装置に表示する。特許文献1において基本オブジェクトは、仮想現実空間で複数のユーザが共通して利用するオブジェクト、たとえばビルディングや道路などの、その基本的な状態が変化しないオブジェクトである。   Patent Document 1 discloses a system in which a user and another user share a three-dimensional virtual reality space. In this system, the client terminal is provided with data on basic objects constituting the virtual reality space from the information server terminal, and is provided with data on the other person's avatar from the shared server terminal. The virtual reality space visible from the position is displayed on the display device. In Patent Document 1, a basic object is an object that is used in common by a plurality of users in a virtual reality space, for example, an object whose basic state does not change, such as a building or a road.

米国特許第6057856号明細書US Pat. No. 6,057,856

複数のユーザが仮想現実空間に参加可能なシステムを構築することで、サービス提供主体は、複数のユーザに様々な体験を提供できる。たとえば仮想現実空間として複数のユーザが参加するクラスルームを構築すれば、ユーザは自宅にいながらにして他のユーザと一緒に授業を受けられるようになる。また仮想現実空間として海外の名所や町並みを構築すると、複数のユーザが一緒に海外旅行を楽しむことができる。   By constructing a system in which a plurality of users can participate in the virtual reality space, the service providing entity can provide various experiences to the plurality of users. For example, if a classroom where a plurality of users participate is constructed as a virtual reality space, the user can take classes with other users while at home. In addition, if overseas landmarks and townscapes are constructed as a virtual reality space, multiple users can enjoy traveling abroad together.

仮想現実空間(以下「仮想空間」とも呼ぶ)で、各ユーザはそれぞれのキャラクタを自由に動かせる。そのためサービス提供主体が、仮想空間内に注目するべき対象物(オブジェクト)を設定しても、各キャラクタの位置や視線方向がばらばらであるために、複数のユーザを同時にまたは同じ時間帯に当該オブジェクトに注目させることが難しかった。   In a virtual reality space (hereinafter also referred to as “virtual space”), each user can freely move each character. For this reason, even if the service providing entity sets a target object (object) to be noted in the virtual space, the positions and line-of-sight directions of each character are different. It was difficult to get attention.

本発明はこうした課題に鑑みてなされたものであり、その目的は、仮想空間におけるユーザキャラクタの注目するべき方向を示唆するための技術を提供することにある。   This invention is made | formed in view of such a subject, The objective is to provide the technique for suggesting the direction which the user character should pay attention in virtual space.

上記課題を解決するために、本発明のある態様の情報処理装置は、アプリケーションの画像データを表示装置に出力する情報処理装置であって、仮想空間においてユーザのキャラクタを動かすための操作情報を取得する取得部と、当該ユーザとは別のユーザのキャラクタを含む画像データを表示装置に出力する画像提供部と、を備える。画像提供部は、別のユーザのキャラクタが見ている方向および/または見ていた方向を示す方向画像を含む画像データを、表示装置に出力する。   In order to solve the above problems, an information processing apparatus according to an aspect of the present invention is an information processing apparatus that outputs image data of an application to a display device, and acquires operation information for moving a user character in a virtual space And an image providing unit that outputs image data including a character of a user different from the user to the display device. The image providing unit outputs image data including a direction image indicating a direction in which another user's character is viewing and / or a direction in which the character is viewed to the display device.

本発明の別の態様は、画像生成方法である。この方法は、仮想空間においてユーザのキャラクタを動かすための操作情報を取得するステップと、仮想空間において当該ユーザとは別のユーザのキャラクタを動かすための操作情報を取得するステップと、当該ユーザのキャラクタの動作、および当該ユーザとは別のユーザのキャラクタの動作を、それぞれの操作情報にもとづいて制御するステップと、仮想空間における当該ユーザのキャラクタの位置にもとづいて、別のユーザのキャラクタと、当該別のユーザのキャラクタが見ている方向および/または見ていた方向を示す方向画像を含む画像データを生成するステップと、を有する。   Another aspect of the present invention is an image generation method. This method includes a step of obtaining operation information for moving a user character in a virtual space, a step of obtaining operation information for moving a user character different from the user in the virtual space, and the user character. And a step of controlling the movement of the user's character different from the user based on the respective operation information, and based on the position of the user's character in the virtual space, Generating image data including a direction image indicating a direction in which another user's character is viewing and / or a direction in which the character is viewed.

なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、コンピュータプログラム、コンピュータプログラムを読み取り可能に記録した記録媒体、データ構造などの間で変換したものもまた、本発明の態様として有効である。   Note that any combination of the above components, the expression of the present invention converted between a method, an apparatus, a system, a computer program, a recording medium on which the computer program is recorded so as to be readable, a data structure, etc. are also included in the present invention It is effective as an embodiment of

本発明によれば、仮想空間におけるユーザキャラクタの注目するべき方向を示唆するための技術を提供できる。   ADVANTAGE OF THE INVENTION According to this invention, the technique for suggesting the direction which the user character should pay attention in virtual space can be provided.

実施例における情報処理システムを示す図である。It is a figure which shows the information processing system in an Example. ユーザキャラクタの視点から見た仮想空間の画像の一例を示す図である。It is a figure which shows an example of the image of the virtual space seen from the viewpoint of the user character. 実施例におけるユーザシステムの構成例を示す図である。It is a figure which shows the structural example of the user system in an Example. HMDの外観形状の例を示す図である。It is a figure which shows the example of the external appearance shape of HMD. HMDの機能ブロックを示す図である。It is a figure which shows the functional block of HMD. 情報処理装置の機能ブロックを示す図である。It is a figure which shows the functional block of information processing apparatus. ユーザキャラクタの視点から見た仮想空間の画像の一例を示す図である。It is a figure which shows an example of the image of the virtual space seen from the viewpoint of the user character. 3次元仮想空間をレンダリングした画像に方向画像を含めた画面例を示す図である。It is a figure which shows the example of a screen which included the direction image in the image which rendered three-dimensional virtual space. 3次元仮想空間をレンダリングした画像に方向画像を含めた画面の別の例を示す図である。It is a figure which shows another example of the screen which included the direction image in the image which rendered three-dimensional virtual space.

図1は、実施例における情報処理システム1を示す。情報処理システム1は、複数のユーザが3次元仮想空間を共有するサービスを提供する。情報処理システム1は複数のユーザシステム3a、3b・・・3m、3n(以下、総称する場合には「ユーザシステム3」と呼ぶ)と、サーバシステム4を備える。サーバシステム4は、サービスの提供主体により運営・管理され、各ユーザシステム3は、それぞれのユーザにより使用される。サーバシステム4および複数のユーザシステム3はインターネットなどのネットワーク2に接続し、サーバシステム4と各ユーザシステム3とは、互いにデータを送受信できる。なお複数のユーザシステム3が、互いにデータを送受信できてもよい。   FIG. 1 shows an information processing system 1 in the embodiment. The information processing system 1 provides a service in which a plurality of users share a three-dimensional virtual space. The information processing system 1 includes a plurality of user systems 3a, 3b,... 3m, 3n (hereinafter, collectively referred to as “user system 3”) and a server system 4. The server system 4 is operated and managed by a service providing entity, and each user system 3 is used by each user. The server system 4 and the plurality of user systems 3 are connected to a network 2 such as the Internet, and the server system 4 and each user system 3 can transmit / receive data to / from each other. A plurality of user systems 3 may be able to transmit / receive data to / from each other.

サーバシステム4は管理サーバ5および記憶装置6を備える。記憶装置6は、3次元仮想空間を生成するための3次元画像データを保持するコンテンツDB7と、3次元仮想空間におけるユーザの挙動情報を蓄積するためのユーザ挙動DB8とを有する。以下、コンテンツDB7が保持する3次元画像データを「コンテンツデータ」と呼ぶ。   The server system 4 includes a management server 5 and a storage device 6. The storage device 6 includes a content DB 7 that holds 3D image data for generating a 3D virtual space, and a user behavior DB 8 for storing user behavior information in the 3D virtual space. Hereinafter, the three-dimensional image data stored in the content DB 7 is referred to as “content data”.

たとえばサーバシステム4はクラスルームの3次元仮想空間をユーザシステム3に提供し、サーバシステム4のオペレータが教師となり、複数のユーザシステム3のユーザが生徒となることで、複数のユーザが一緒に授業を受けられるサービスを提供できる。またサーバシステム4は都市や観光地の3次元仮想空間をユーザシステム3に提供し、オペレータがツアーガイドとなり、複数のユーザが旅行参加者となることで、複数のユーザがガイド付きで旅行を楽しむサービスを提供できる。またサーバシステム4は宝が隠された3次元仮想空間をユーザシステム3に提供し、オペレータが宝探しの案内人となり、複数のユーザがトレジャーハンターとなることで、複数のユーザが案内人からのヒントをもとに宝探しを競うサービスを提供できる。   For example, the server system 4 provides a three-dimensional virtual space of a classroom to the user system 3, the operator of the server system 4 becomes a teacher, and the users of the plurality of user systems 3 become students, so that a plurality of users can take classes together. We can provide services that can be received. In addition, the server system 4 provides the user system 3 with a three-dimensional virtual space of a city or a sightseeing spot, and an operator becomes a tour guide and a plurality of users become travel participants, so that a plurality of users can enjoy traveling with a guide. Service can be provided. Further, the server system 4 provides the user system 3 with a three-dimensional virtual space in which treasure is hidden, and an operator becomes a treasure hunting guide, and a plurality of users become treasure hunters. A service to compete for treasure hunting can be provided.

このようにサーバシステム4は、3次元仮想空間を複数のユーザで共有するサービスを提供する。コンテンツDB7に記憶されるコンテンツデータは、基本的に位置情報や姿勢情報などが更新されない静的なオブジェクトデータにより構成される。たとえば観光地の仮想空間を表現するコンテンツデータは、相対的な位置関係を定義された建物オブジェクト、道路オブジェクト、街灯オブジェクト、看板オブジェクトなどを含んで構成される。なお仮想空間内でユーザが動かすことのできるオブジェクトが存在してもよい。   As described above, the server system 4 provides a service for sharing a three-dimensional virtual space among a plurality of users. The content data stored in the content DB 7 is basically composed of static object data whose position information and posture information are not updated. For example, the content data representing the virtual space of a sightseeing spot includes a building object, a road object, a streetlight object, a signboard object, and the like whose relative positional relationships are defined. There may be an object that the user can move in the virtual space.

ユーザシステム3は、サービスの提供を受ける前に、コンテンツデータを再生するためのビューワアプリケーションをインストールする。ユーザシステム3がネットワーク2を介してサーバシステム4からコンテンツデータをダウンロードすると、ビューワアプリケーションは、コンテンツデータをもとに仮想空間を構築し、仮想空間内でユーザによる操作情報をもとにキャラクタを動かし、ユーザキャラクタの位置および姿勢(視線方向)に応じて仮想空間をレンダリングする。これによりユーザはユーザキャラクタを通じて、仮想空間内を自由に移動し、自由視点からの画像を見ることができる。   The user system 3 installs a viewer application for reproducing the content data before receiving the service. When the user system 3 downloads content data from the server system 4 via the network 2, the viewer application constructs a virtual space based on the content data, and moves a character in the virtual space based on user operation information. The virtual space is rendered according to the position and posture (line-of-sight direction) of the user character. As a result, the user can freely move in the virtual space through the user character and view an image from a free viewpoint.

図2は、あるユーザキャラクタの視点から見た仮想空間の画像の一例を示す。ビューワアプリケーションは、ユーザキャラクタの位置および視線方向に応じて、ユーザキャラクタの視点からの画像を生成する。   FIG. 2 shows an example of a virtual space image viewed from the viewpoint of a certain user character. The viewer application generates an image from the viewpoint of the user character according to the position and line-of-sight direction of the user character.

それぞれのユーザシステム3がコンテンツデータをダウンロードすることで、複数のユーザによる仮想空間の共有が実現される。以下、10人のユーザA、B、C、D、E、F、G、H、I、Jが仮想空間を共有する例について説明する。管理サーバ5は、複数ユーザによる仮想空間の共有処理を担当する。各ユーザは、仮想空間内でそれぞれのユーザキャラクタを操作するが、その操作情報は、当該ユーザのユーザシステム3においてビューワアプリケーションによる処理に使用されるとともに、管理サーバ5に送信され、管理サーバ5は、他のユーザのユーザシステム3に転送する。つまりユーザAが自身のキャラクタを操作した操作情報は、他の9人のユーザB〜Jのユーザシステム3にも提供されて、それぞれのユーザシステム3のビューワアプリケーションによる処理に使用される。このように各ユーザによるキャラクタの操作情報が全てのユーザに共有されることで、各ユーザシステム3において全ユーザA〜Jのユーザキャラクタは、通信遅延の影響を除けば基本的に同じ挙動を示すようになる。   Each user system 3 downloads content data, thereby realizing sharing of a virtual space by a plurality of users. Hereinafter, an example in which ten users A, B, C, D, E, F, G, H, I, and J share a virtual space will be described. The management server 5 is in charge of virtual space sharing processing by a plurality of users. Each user operates each user character in the virtual space, and the operation information is used for processing by the viewer application in the user system 3 of the user and is transmitted to the management server 5. And transfer to the user system 3 of another user. That is, the operation information that the user A has operated his / her character is also provided to the user systems 3 of the other nine users B to J, and is used for processing by the viewer application of each user system 3. Thus, by sharing the operation information of the characters by each user to all users, the user characters of all users A to J in each user system 3 basically exhibit the same behavior except for the influence of communication delay. It becomes like this.

図3は、実施例におけるユーザシステム3の構成例を示す。ユーザシステム3は情報処理装置10と、ヘッドマウントディスプレイ装置(HMD)100と、ユーザが手指で操作する入力装置16と、HMD100を装着したユーザを撮影する撮像装置14と、画像を表示する出力装置15とを備える。情報処理装置10は、アクセスポイント(AP)17を介してネットワーク2に接続される。AP17は無線アクセスポイントおよびルータの機能を有し、情報処理装置10はAP17とケーブルで接続してもよく、既知の無線通信プロトコルで接続してもよい。   FIG. 3 shows a configuration example of the user system 3 in the embodiment. The user system 3 includes an information processing device 10, a head mounted display device (HMD) 100, an input device 16 operated by a user's finger, an imaging device 14 that captures a user wearing the HMD 100, and an output device that displays an image. 15. The information processing apparatus 10 is connected to the network 2 via an access point (AP) 17. The AP 17 has functions of a wireless access point and a router, and the information processing apparatus 10 may be connected to the AP 17 with a cable or may be connected with a known wireless communication protocol.

HMD100はユーザの頭部に装着されて仮想現実(VR)の世界をユーザに提供する。HMD100にヘッドトラッキング機能をもたせ、ユーザの頭部の動きに連動して表示画面を更新することで、映像世界への没入感を高められる。なお実施例では、レンダリングした画像をHMD100の表示パネルに表示するが、レンダリングした画像は出力装置15に表示されてもよい。   The HMD 100 is worn on the user's head and provides the user with a virtual reality (VR) world. By providing the HMD 100 with a head tracking function and updating the display screen in conjunction with the movement of the user's head, a sense of immersion in the video world can be enhanced. In the embodiment, the rendered image is displayed on the display panel of the HMD 100, but the rendered image may be displayed on the output device 15.

情報処理装置10は、処理装置11、出力制御装置12および記憶装置13を備える。処理装置11は、ユーザにより入力装置16に入力された操作情報を受け付けて、ビューワアプリケーションを実行する端末装置である。処理装置11と入力装置16とはケーブルで接続されてよく、また既知の無線通信プロトコルで接続されてもよい。なお実施例の処理装置11は、HMD100の姿勢情報をビューワアプリケーションに対するユーザの操作情報として受け付けて、ビューワアプリケーションを実行する機能ももつ。出力制御装置12は、処理装置11で生成された画像データをHMD100に出力する処理ユニットである。出力制御装置12とHMD100とはケーブルで接続されてよく、また既知の無線通信プロトコルで接続されてもよい。   The information processing apparatus 10 includes a processing device 11, an output control device 12, and a storage device 13. The processing device 11 is a terminal device that receives operation information input to the input device 16 by a user and executes a viewer application. The processing device 11 and the input device 16 may be connected by a cable or may be connected by a known wireless communication protocol. Note that the processing device 11 according to the embodiment also has a function of accepting the attitude information of the HMD 100 as user operation information for the viewer application and executing the viewer application. The output control device 12 is a processing unit that outputs the image data generated by the processing device 11 to the HMD 100. The output control device 12 and the HMD 100 may be connected by a cable or may be connected by a known wireless communication protocol.

撮像装置14はステレオカメラであって、HMD100を装着したユーザを所定の周期で撮影し、撮影画像を処理装置11に供給する。後述するがHMD100にはユーザ頭部をトラッキングするためのマーカ(トラッキング用LED)が設けられ、処理装置11は、撮影画像に含まれるマーカの位置にもとづいてHMD100の動きを検出する。なおHMD100には姿勢センサ(加速度センサおよびジャイロセンサ)が搭載され、処理装置11は、姿勢センサで検出されたセンサデータをHMD100から取得することで、マーカの撮影画像の利用とあわせて、高精度のトラッキング処理を実施する。なおトラッキング処理については従来より様々な手法が提案されており、処理装置11はHMD100の動きを検出できるのであれば、どのようなトラッキング手法を採用してもよい。   The imaging device 14 is a stereo camera, captures a user wearing the HMD 100 at a predetermined cycle, and supplies the captured image to the processing device 11. As will be described later, the HMD 100 is provided with a marker (tracking LED) for tracking the user's head, and the processing device 11 detects the movement of the HMD 100 based on the position of the marker included in the captured image. The HMD 100 is equipped with posture sensors (acceleration sensor and gyro sensor), and the processing device 11 acquires sensor data detected by the posture sensor from the HMD 100, so that it can be used with high accuracy together with the use of the captured image of the marker. Execute tracking process. Various methods have been proposed for tracking processing, and the processing device 11 may adopt any tracking method as long as it can detect the movement of the HMD 100.

実施例のユーザシステム3では、HMD100にユーザキャラクタの視点から見た画像を提供するビューワアプリケーションを実行する。実施例ではユーザがHMD100で画像を見るため、ユーザシステム3において出力装置15は必ずしも必要ではないが、変形例ではユーザがHMD100を装着せず、出力制御装置12または処理装置11が、画像を出力装置15から出力させてもよい。   In the user system 3 of the embodiment, a viewer application that provides the HMD 100 with an image viewed from the viewpoint of the user character is executed. In the embodiment, since the user views the image with the HMD 100, the output device 15 is not necessarily required in the user system 3. However, in the modified example, the user does not wear the HMD 100, and the output control device 12 or the processing device 11 outputs the image. You may make it output from the apparatus 15.

HMD100は、ユーザが頭に装着することによりその眼前に位置する表示パネルに画像を表示する表示装置である。HMD100は、左目用表示パネルに左目用の画像を、右目用表示パネルに右目用の画像を、それぞれ別個に表示する。これらの画像は左右の視点から見た視差画像を構成し、立体視を実現する。なおユーザは光学レンズを通して表示パネルを見るため、情報処理装置10は、レンズによる光学歪みを補正した視差画像データをHMD100に供給する。この光学歪みの補正処理は、処理装置11、出力制御装置12のいずれが行ってもよい。   The HMD 100 is a display device that displays an image on a display panel positioned in front of the user when the user wears the head. The HMD 100 separately displays a left-eye image on the left-eye display panel and a right-eye image on the right-eye display panel. These images constitute parallax images viewed from the left and right viewpoints, and realize stereoscopic viewing. Since the user views the display panel through the optical lens, the information processing apparatus 10 supplies the HMD 100 with parallax image data in which optical distortion caused by the lens is corrected. Either the processing device 11 or the output control device 12 may perform this optical distortion correction processing.

処理装置11、記憶装置13、出力装置15、入力装置16および撮像装置14は、従来型のゲームシステムを構築してよい。この場合、処理装置11はゲームを実行するゲーム装置であり、入力装置16はゲームコントローラ、キーボード、マウス、ジョイスティックなど処理装置11にユーザによる操作情報を供給する機器である。このゲームシステムの構成要素に、出力制御装置12およびHMD100を追加することで、VRのビューワアプリケーションを実施するユーザシステム3が構築される。   The processing device 11, the storage device 13, the output device 15, the input device 16, and the imaging device 14 may construct a conventional game system. In this case, the processing device 11 is a game device that executes a game, and the input device 16 is a device that supplies operation information by the user to the processing device 11 such as a game controller, a keyboard, a mouse, and a joystick. By adding the output control device 12 and the HMD 100 to the components of the game system, the user system 3 that implements the VR viewer application is constructed.

なお出力制御装置12による機能は、ビューワアプリケーションの一部の機能として処理装置11に組み込まれてもよい。つまり情報処理装置10の処理ユニットは、1台の処理装置11から構成されても、また処理装置11および出力制御装置12から構成されてもよい。以下においては、ビューワアプリケーションの実施に必要な処理装置11および出力制御装置12の機能を、まとめて情報処理装置10の機能として説明する。   Note that the function of the output control device 12 may be incorporated into the processing device 11 as a part of the function of the viewer application. That is, the processing unit of the information processing apparatus 10 may be configured by one processing apparatus 11 or may be configured by the processing apparatus 11 and the output control apparatus 12. In the following, functions of the processing device 11 and the output control device 12 necessary for implementing the viewer application will be collectively described as functions of the information processing device 10.

ビューワアプリケーションを実施する前段階として、処理装置11は、サーバシステム4の記憶装置6に記憶されているコンテンツデータを記憶装置13にダウンロードする。またユーザは、ビューワアプリケーションを開始する際に自身のキャラクタを設定し、設定したユーザキャラクタデータは、記憶装置13に記憶されるとともに、サーバシステム4に送信されて、サーバシステム4から他のユーザのユーザシステム3に送信される。   As a stage before executing the viewer application, the processing device 11 downloads the content data stored in the storage device 6 of the server system 4 to the storage device 13. In addition, the user sets his / her character when starting the viewer application, and the set user character data is stored in the storage device 13 and transmitted to the server system 4 from the server system 4. It is transmitted to the user system 3.

ビューワアプリケーションは、入力装置16から入力された操作情報にもとづいて仮想空間内でユーザキャラクタを動かし、ユーザの頭部に装着されたHMD100の姿勢情報にもとづいてユーザキャラクタの視線方向を定める。実施例ではビューワアプリケーションが、HMD100の姿勢情報を、ユーザキャラクタの視線方向を操作するための操作情報として利用するが、入力装置16における入力情報を、視線方向を操作するための操作情報として利用してもよい。またユーザキャラクタを移動させるための操作情報は、入力装置16の入力情報を用いずに、HMD100の位置情報を利用してもよい。実施例において、ユーザキャラクタの操作情報は、入力装置16およびHMD100のいずれから取得されてもよく、また他のユーザインタフェースから取得されてもよい。   The viewer application moves the user character in the virtual space based on the operation information input from the input device 16, and determines the line-of-sight direction of the user character based on the posture information of the HMD 100 mounted on the user's head. In the embodiment, the viewer application uses the posture information of the HMD 100 as operation information for operating the gaze direction of the user character, but uses the input information in the input device 16 as operation information for operating the gaze direction. May be. Further, the operation information for moving the user character may use the position information of the HMD 100 without using the input information of the input device 16. In the embodiment, the operation information of the user character may be acquired from either the input device 16 or the HMD 100, or may be acquired from another user interface.

情報処理装置10は、ユーザのヘッドトラッキング処理を行うことで、ユーザ頭部(実際にはHMD100)の位置座標および姿勢を検出する。ここでHMD100の位置座標とは、基準位置を原点とした3次元空間における位置座標であり、基準位置はHMD100の電源がオンされたときの位置座標(緯度、経度)であってよい。またHMD100の姿勢とは、3次元空間における基準姿勢に対する3軸方向の傾きである。なお基準姿勢は、ユーザの視線方向が水平方向となる姿勢であり、HMD100の電源がオンされたときに基準姿勢が設定されてよい。   The information processing apparatus 10 detects the position coordinates and orientation of the user's head (actually the HMD 100) by performing the user's head tracking process. Here, the position coordinates of the HMD 100 are position coordinates in a three-dimensional space with the reference position as the origin, and the reference position may be a position coordinate (latitude, longitude) when the power of the HMD 100 is turned on. Further, the attitude of the HMD 100 is an inclination in the three-axis direction with respect to a reference attitude in a three-dimensional space. The reference posture is a posture in which the user's line-of-sight direction is the horizontal direction, and the reference posture may be set when the power of the HMD 100 is turned on.

情報処理装置10は、HMD100の姿勢センサが検出したセンサデータのみから、HMD100の位置座標および姿勢を検出でき、さらに撮像装置14で撮影したHMD100のマーカ(トラッキング用LED)を画像解析することで、高精度にHMD100の位置座標および姿勢を検出できる。上記したように情報処理装置10は、HMD100の位置情報をもとにユーザキャラクタの仮想空間内の位置を算出し、HMD100の姿勢情報をもとにユーザキャラクタの視線方向を算出してもよいが、実施例では仮想空間内におけるユーザキャラクタの位置は、入力装置16の操作情報をもとに算出する。   The information processing apparatus 10 can detect the position coordinates and orientation of the HMD 100 only from the sensor data detected by the orientation sensor of the HMD 100, and further, by analyzing the image of the marker (tracking LED) of the HMD 100 captured by the imaging device 14, The position coordinates and orientation of the HMD 100 can be detected with high accuracy. As described above, the information processing apparatus 10 may calculate the position of the user character in the virtual space based on the position information of the HMD 100, and may calculate the gaze direction of the user character based on the posture information of the HMD 100. In the embodiment, the position of the user character in the virtual space is calculated based on the operation information of the input device 16.

図4は、HMD100の外観形状の例を示す。HMD100は、出力機構部102および装着機構部104から構成される。装着機構部104は、ユーザが被ることにより頭部を一周してHMD100を頭部に固定する装着バンド106を含む。装着バンド106はユーザの頭囲に合わせて長さの調節が可能な素材または構造をもつ。   FIG. 4 shows an example of the external shape of the HMD 100. The HMD 100 includes an output mechanism unit 102 and a mounting mechanism unit 104. The wearing mechanism unit 104 includes a wearing band 106 that goes around the head when the user wears and fixes the HMD 100 to the head. The wearing band 106 has a material or a structure whose length can be adjusted according to the user's head circumference.

出力機構部102は、HMD100をユーザが装着した状態において左右の目を覆う形状の筐体108を含み、内部には装着時に目に正対する表示パネルを備える。表示パネルは液晶パネルや有機ELパネルなどであってよい。筐体108内部にはさらに、表示パネルとユーザの目との間に位置し、ユーザの視野角を拡大する左右一対の光学レンズが備えられる。HMD100はさらに、ユーザの耳に対応する位置にスピーカーやイヤホンを備えてよい。   The output mechanism unit 102 includes a housing 108 shaped to cover the left and right eyes when the user wears the HMD 100, and includes a display panel that faces the eyes when worn. The display panel may be a liquid crystal panel or an organic EL panel. The housing 108 is further provided with a pair of left and right optical lenses that are positioned between the display panel and the user's eyes and expand the viewing angle of the user. The HMD 100 may further include a speaker or an earphone at a position corresponding to the user's ear.

筐体108の外面には、発光マーカ110a、110b、110c、110dが備えられる。この例ではトラッキング用LEDが発光マーカ110を構成するが、その他の種類のマーカであってよく、いずれにしても撮像装置14により撮影されて、情報処理装置10がマーカ位置を画像解析できるものであればよい。発光マーカ110の数や配置は特に限定されないが、HMD100の姿勢を検出できるための数および配置である必要があり、図示した例では筐体108の前面の4隅に設けている。さらにユーザが撮像装置14に対して背を向けたときにも撮影できるように、発光マーカ110は装着バンド106の側部や後部に設けられてもよい。   On the outer surface of the housing 108, light emitting markers 110a, 110b, 110c, and 110d are provided. In this example, the tracking LED constitutes the light emitting marker 110, but it may be any other type of marker, and in any case, the image is taken by the imaging device 14 and the information processing device 10 can perform image analysis of the marker position. I just need it. The number and arrangement of the light emitting markers 110 are not particularly limited, but need to be the number and arrangement for detecting the posture of the HMD 100. In the illustrated example, the light emitting markers 110 are provided at the four corners on the front surface of the housing 108. Further, the light emitting marker 110 may be provided on the side or the rear of the wearing band 106 so that the user can take a picture even when the user turns his back to the imaging device 14.

HMD100は、情報処理装置10にケーブルで接続されても、既知の無線通信プロトコルで接続されてもよい。HMD100は、姿勢センサが検出したセンサデータを情報処理装置10に送信し、また情報処理装置10で生成された画像データを受信して、左目用表示パネルおよび右目用表示パネルに表示する。   The HMD 100 may be connected to the information processing apparatus 10 with a cable or may be connected with a known wireless communication protocol. The HMD 100 transmits the sensor data detected by the posture sensor to the information processing apparatus 10, receives image data generated by the information processing apparatus 10, and displays the image data on the left-eye display panel and the right-eye display panel.

図5は、HMD100の機能ブロックを示す。制御部120は、画像データ、音声データ、センサデータなどの各種データや、命令を処理して出力するメインプロセッサである。記憶部122は、制御部120が処理するデータや命令などを一時的に記憶する。姿勢センサ124は、HMD100の姿勢情報を検出する。姿勢センサ124は、少なくとも3軸の加速度センサおよび3軸のジャイロセンサを含む。   FIG. 5 shows functional blocks of the HMD 100. The control unit 120 is a main processor that processes and outputs various data such as image data, audio data, sensor data, and commands. The storage unit 122 temporarily stores data, commands, and the like that are processed by the control unit 120. The posture sensor 124 detects posture information of the HMD 100. The posture sensor 124 includes at least a triaxial acceleration sensor and a triaxial gyro sensor.

通信制御部128は、ネットワークアダプタまたはアンテナを介して、有線または無線通信により、制御部120から出力されるデータを外部の情報処理装置10に送信する。また通信制御部128は、ネットワークアダプタまたはアンテナを介して、有線または無線通信により、情報処理装置10からデータを受信し、制御部120に出力する。   The communication control unit 128 transmits data output from the control unit 120 to the external information processing apparatus 10 by wired or wireless communication via a network adapter or an antenna. In addition, the communication control unit 128 receives data from the information processing apparatus 10 through wired or wireless communication via a network adapter or an antenna, and outputs the data to the control unit 120.

制御部120は、画像データや音声データを情報処理装置10から受け取ると、表示パネル130に供給して表示させ、また音声出力部132に供給して音声出力させる。表示パネル130は、左目用表示パネル130aと右目用表示パネル130bから構成され、各表示パネルに一対の視差画像が表示される。また制御部120は、姿勢センサ124からのセンサデータや、マイク126からの音声データを、通信制御部128から情報処理装置10に送信させる。   When the control unit 120 receives image data and audio data from the information processing apparatus 10, the control unit 120 supplies the image data and audio data to the display panel 130 for display, and supplies them to the audio output unit 132 for audio output. The display panel 130 includes a left-eye display panel 130a and a right-eye display panel 130b, and a pair of parallax images is displayed on each display panel. Further, the control unit 120 causes the communication control unit 128 to transmit the sensor data from the attitude sensor 124 and the audio data from the microphone 126 to the information processing apparatus 10.

図6は、情報処理装置10の機能ブロックを示す。情報処理装置10は、外部との入出力インタフェースとして、センサデータ受信部20、撮影画像受信部22、入力データ受信部24、サーバデータ受信部26、操作情報送信部30、画像提供部32および音声提供部34を備える。サーバデータ受信部26は、管理サーバ5から送信されるデータを受信する通信インタフェースである。   FIG. 6 shows functional blocks of the information processing apparatus 10. The information processing apparatus 10 includes a sensor data receiving unit 20, a captured image receiving unit 22, an input data receiving unit 24, a server data receiving unit 26, an operation information transmitting unit 30, an image providing unit 32, and an audio as an input / output interface with the outside. A providing unit 34 is provided. The server data receiving unit 26 is a communication interface that receives data transmitted from the management server 5.

情報処理装置10は、さらに取得部40、処理部50および記憶装置13を備える。取得部40は、入出力インタフェースで受信したデータからビューワアプリケーションで使用する情報を取得する機能をもち、第1操作情報取得部42、第2操作情報取得部44およびオブジェクト情報取得部46を有する。処理部50は、取得部40で取得した情報から画像データを生成する機能をもち、キャラクタ制御部52、判定部54および画像生成部56を有する。記憶装置13は、3次元仮想空間を構築するためのコンテンツデータや、情報処理装置10の利用ユーザのキャラクタデータおよび他のユーザのキャラクタデータなどを記憶する。   The information processing apparatus 10 further includes an acquisition unit 40, a processing unit 50, and a storage device 13. The acquisition unit 40 has a function of acquiring information used in the viewer application from data received by the input / output interface, and includes a first operation information acquisition unit 42, a second operation information acquisition unit 44, and an object information acquisition unit 46. The processing unit 50 has a function of generating image data from the information acquired by the acquisition unit 40, and includes a character control unit 52, a determination unit 54, and an image generation unit 56. The storage device 13 stores content data for constructing a three-dimensional virtual space, character data of a user of the information processing device 10, character data of other users, and the like.

図6において、さまざまな処理を行う機能ブロックとして記載される各要素は、ハードウェア的には、回路ブロック、メモリ、その他のLSIで構成することができ、ソフトウェア的には、メモリにロードされたプログラムなどによって実現される。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。   In FIG. 6, each element described as a functional block for performing various processes can be configured by a circuit block, a memory, and other LSIs in terms of hardware, and loaded in the memory in terms of software. Realized by programs. Therefore, it is understood by those skilled in the art that these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof, and is not limited to any one.

以下、「ユーザA」が使用する情報処理装置10の動作について説明する。第1操作情報取得部42は、仮想空間においてユーザAのキャラクタを動かすための操作情報を取得する。一方で、第2操作情報取得部44は、仮想空間においてユーザAとは別のユーザ、つまりユーザB、C、D、E、F、G、H、I、Jのキャラクタを動かすための操作情報を取得する。   Hereinafter, the operation of the information processing apparatus 10 used by “user A” will be described. The first operation information acquisition unit 42 acquires operation information for moving the user A's character in the virtual space. On the other hand, the second operation information acquisition unit 44 is operation information for moving a character other than the user A in the virtual space, that is, the characters of the users B, C, D, E, F, G, H, I, and J. To get.

なお「ユーザB」が使用する情報処理装置10においては、第1操作情報取得部42が、ユーザBのキャラクタを動かすための操作情報を取得し、第2操作情報取得部44が、ユーザBとは別のユーザのキャラクタを動かすための操作情報を取得する。   In the information processing apparatus 10 used by “user B”, the first operation information acquisition unit 42 acquires operation information for moving the character of user B, and the second operation information acquisition unit 44 Acquires operation information for moving another user's character.

以下、ユーザAによる操作情報について説明する。
センサデータ受信部20は、ユーザAが装着したHMD100の姿勢センサ124から所定の周期でセンサデータを受信して、第1操作情報取得部42に供給する。撮影画像受信部22は、撮像装置14から所定の周期でHMD100を撮影した画像を受信して、第1操作情報取得部42に供給する。たとえば撮像装置14は(1/60)秒ごとに前方の空間を撮影し、撮影画像受信部22は、(1/60)秒ごとに撮影画像を受信する。入力データ受信部24は入力装置16から、ユーザAが入力したキーデータを受信して、第1操作情報取得部42に供給する。
Hereinafter, the operation information by the user A will be described.
The sensor data receiving unit 20 receives sensor data from the attitude sensor 124 of the HMD 100 worn by the user A at a predetermined cycle, and supplies the sensor data to the first operation information acquisition unit 42. The captured image receiving unit 22 receives an image obtained by capturing the HMD 100 at a predetermined cycle from the imaging device 14 and supplies the image to the first operation information acquisition unit 42. For example, the imaging device 14 captures a front space every (1/60) second, and the captured image receiving unit 22 receives a captured image every (1/60) second. The input data receiving unit 24 receives key data input by the user A from the input device 16 and supplies the key data to the first operation information acquisition unit 42.

第1操作情報取得部42は、ユーザの頭部に装着されたHMD100の動きにもとづいてHMD100の姿勢の変化を検出し、仮想空間におけるユーザAのキャラクタの視線方向の変化を示す操作情報を取得する。また第1操作情報取得部42は、入力データ受信部24で受信した入力装置16のキーデータにもとづいて、仮想空間におけるユーザAのキャラクタの移動量および移動方向を示す操作情報を取得する。   The first operation information acquisition unit 42 detects a change in the posture of the HMD 100 based on the movement of the HMD 100 mounted on the user's head, and acquires operation information indicating a change in the line-of-sight direction of the user A character in the virtual space. To do. Further, the first operation information acquisition unit 42 acquires operation information indicating the movement amount and movement direction of the user A character in the virtual space based on the key data of the input device 16 received by the input data receiving unit 24.

第1操作情報取得部42は、姿勢センサ124のセンサデータからHMD100の姿勢の変化を検出する。第1操作情報取得部42は3軸ジャイロセンサのセンサデータから、HMD100の姿勢変化を特定してよい。なお第1操作情報取得部42は、トラッキング用の発光マーカ110の撮影結果をさらに利用して、姿勢変化の検出精度を高めることが好ましい。第1操作情報取得部42は、検出したHMD100の姿勢の変化から、ユーザAの視線方向の変化を示す操作情報を取得する。   The first operation information acquisition unit 42 detects a change in the attitude of the HMD 100 from the sensor data of the attitude sensor 124. The first operation information acquisition unit 42 may specify the posture change of the HMD 100 from the sensor data of the three-axis gyro sensor. Note that the first operation information acquisition unit 42 preferably further increases the detection accuracy of the posture change by further using the imaging result of the tracking light emitting marker 110. The first operation information acquisition unit 42 acquires operation information indicating a change in the viewing direction of the user A from the detected change in the attitude of the HMD 100.

また第1操作情報取得部42は、入力装置16に入力されたキーデータから、ユーザAのキャラクタの移動量および移動方向を示す操作情報を取得する。入力装置16の操作により仮想空間内のキャラクタを動作させる処理は、既知の技術を利用してよい。実施例ではユーザAがHMD100を装着するため、キャラクタの視線方向を、HMD100を装着したユーザAの視線方向に合わせているが、変形例ではユーザAがHMD100を装着しない実施態様も想定され、この場合はユーザAが、入力装置16から、キャラクタの位置および視線方向を制御するためのキーデータを入力してもよい。   The first operation information acquisition unit 42 acquires operation information indicating the movement amount and movement direction of the character of the user A from the key data input to the input device 16. A known technique may be used for the process of moving the character in the virtual space by operating the input device 16. In the embodiment, since the user A wears the HMD 100, the line-of-sight direction of the character is matched with the line-of-sight direction of the user A wearing the HMD 100. However, in the modification, an embodiment in which the user A does not wear the HMD 100 is also assumed. In this case, the user A may input key data for controlling the position and line-of-sight direction of the character from the input device 16.

このようにして第1操作情報取得部42は、仮想空間においてユーザAのキャラクタを動かすための操作情報を取得する。この操作情報は、位置および視線方向の変化量を指定する情報であってよいが、位置および視線方向を直接指定する情報であってもよい。第1操作情報取得部42は、ユーザAのキャラクタを動かすための操作情報をキャラクタ制御部52に供給する。第1操作情報取得部42がどのような操作情報を取得するかは、ビューワアプリケーションに依存し、いずれにしてもキャラクタ制御部52が処理できる操作情報であればよい。第1操作情報取得部42は、所定の周期で操作情報を生成してキャラクタ制御部52に供給してよいが、状態変化が生じたとき、つまりHMD100の姿勢が変化したとき又は入力装置16でキー入力が生じたときに操作情報を生成してキャラクタ制御部52に供給してもよい。   In this way, the first operation information acquisition unit 42 acquires operation information for moving the user A's character in the virtual space. This operation information may be information that specifies the amount of change in the position and the line-of-sight direction, but may be information that directly specifies the position and the line-of-sight direction. The first operation information acquisition unit 42 supplies operation information for moving the user A's character to the character control unit 52. What kind of operation information the first operation information acquisition unit 42 acquires depends on the viewer application, and any operation information that can be processed by the character control unit 52 may be used. The first operation information acquisition unit 42 may generate operation information at a predetermined cycle and supply the operation information to the character control unit 52. However, when the state change occurs, that is, when the attitude of the HMD 100 changes or the input device 16 Operation information may be generated and supplied to the character control unit 52 when a key input occurs.

キャラクタ制御部52は、第1操作情報取得部42から供給される操作情報にもとづいて、仮想空間内のユーザAのキャラクタの動作、具体的にはキャラクタの位置および視線方向を制御する。   Based on the operation information supplied from the first operation information acquisition unit 42, the character control unit 52 controls the movement of the character of the user A in the virtual space, specifically the position and line-of-sight direction of the character.

画像生成部56は、仮想空間におけるユーザキャラクタの位置(3次元仮想空間座標値)にもとづいて、仮想空間の3次元レンダリングを行う。具体的に画像生成部56は、ユーザキャラクタの位置に、ユーザキャラクタの視線方向を光軸とする仮想カメラを配置して、画像データを生成する。画像提供部32は、生成された画像データをHMD100に出力する。   The image generation unit 56 performs three-dimensional rendering of the virtual space based on the position (three-dimensional virtual space coordinate value) of the user character in the virtual space. Specifically, the image generation unit 56 generates image data by arranging a virtual camera having the optical axis in the direction of the line of sight of the user character at the position of the user character. The image providing unit 32 outputs the generated image data to the HMD 100.

実施例のビューワアプリケーションでは、ユーザAが入力装置16のキー入力によりキャラクタを移動させ、また首を傾けてHMD100の向きを変更することで、キャラクタの視線方向を変えることができる。HMD100の表示パネル130には、キャラクタの位置および視線方向に応じた画像が表示される(図2参照)。   In the viewer application of the embodiment, the user A can change the line-of-sight direction of the character by moving the character by key input of the input device 16 and tilting the neck to change the direction of the HMD 100. The display panel 130 of the HMD 100 displays an image corresponding to the character position and line-of-sight direction (see FIG. 2).

以上はユーザAのキャラクタの動作制御であるが、実施例の情報処理システム1は、3次元仮想空間を複数のユーザで共有するサービスを提供する。そのため第1操作情報取得部42で取得されたユーザAのキャラクタの操作情報は、操作情報送信部30から管理サーバ5に送信され、管理サーバ5から別のユーザB〜Jの情報処理装置10に転送される。   The above is the motion control of the character of the user A, but the information processing system 1 of the embodiment provides a service for sharing the three-dimensional virtual space among a plurality of users. Therefore, the operation information of the user A character acquired by the first operation information acquisition unit 42 is transmitted from the operation information transmission unit 30 to the management server 5, and is transmitted from the management server 5 to the information processing apparatuses 10 of other users B to J. Transferred.

別のユーザB〜Jの情報処理装置10においても、それぞれのユーザのキャラクタを動かすための操作情報が取得され、管理サーバ5に送信される。管理サーバ5は、ユーザAの情報処理装置10に、ユーザB〜Jの情報処理装置10で取得されたキャラクタの操作情報を送信する。サーバデータ受信部26は、管理サーバ5から送信される別のユーザのキャラクタ操作情報を受信する。   Also in the information processing apparatuses 10 of the other users B to J, operation information for moving each user's character is acquired and transmitted to the management server 5. The management server 5 transmits the operation information of the character acquired by the information processing apparatuses 10 of the users B to J to the information processing apparatus 10 of the user A. The server data receiving unit 26 receives character operation information of another user transmitted from the management server 5.

管理サーバ5は、仮想空間共有サービスに参加するユーザの情報を管理する。ユーザ情報は、ユーザを識別するためのユーザアカウント、ユーザのキャラクタデータを少なくとも含み、管理サーバ5はサービス開始前に、各参加ユーザのユーザ情報を、すべての参加ユーザの情報処理装置10に送信しておく。サービス開始後、管理サーバ5は、ユーザのキャラクタの操作情報をユーザアカウントに紐付けて各情報処理装置10に送信し、したがって情報処理装置10は、サーバデータ受信部26で受信した操作情報がどのユーザのキャラクタの動作に反映させる情報であるかを特定できる。   The management server 5 manages information on users who participate in the virtual space sharing service. The user information includes at least a user account for identifying the user and character data of the user, and the management server 5 transmits the user information of each participating user to the information processing apparatuses 10 of all the participating users before starting the service. Keep it. After the service is started, the management server 5 associates the operation information of the user character with the user account and transmits it to each information processing apparatus 10. Therefore, the information processing apparatus 10 determines which operation information is received by the server data receiving unit 26. It is possible to specify whether the information is to be reflected in the movement of the user's character.

第2操作情報取得部44は、サーバデータ受信部26から、別のユーザB〜Jのキャラクタを動かすための操作情報を取得し、キャラクタ制御部52に供給する。キャラクタ制御部52は、第2操作情報取得部44から供給される操作情報にもとづいて、仮想空間内の別のユーザのキャラクタの動作、具体的にはキャラクタの位置および視線方向を制御する。なおキャラクタの視線方向の制御は、キャラクタの首の向きを制御することで実施される。   The second operation information acquisition unit 44 acquires operation information for moving the characters of the other users B to J from the server data reception unit 26 and supplies the operation information to the character control unit 52. Based on the operation information supplied from the second operation information acquisition unit 44, the character control unit 52 controls the movement of another user's character in the virtual space, specifically the position and line-of-sight direction of the character. The control of the character's line-of-sight direction is performed by controlling the direction of the character's neck.

上記したように画像生成部56は、ユーザAのキャラクタの位置から、キャラクタの視線方向に見える仮想空間の画像を生成する。そのためユーザAのキャラクタの視野に、別のユーザのキャラクタが含まれていれば、画像生成部56は、ユーザAとは別のユーザのキャラクタを含む画像データを生成する。画像提供部32は、生成された画像データを、表示装置であるHMD100に出力する。   As described above, the image generation unit 56 generates an image of the virtual space that is visible in the line-of-sight direction of the character from the position of the character of the user A. Therefore, if another user's character is included in the visual field of the user A's character, the image generation unit 56 generates image data including a user's character different from the user A. The image providing unit 32 outputs the generated image data to the HMD 100 that is a display device.

図7は、ユーザAのキャラクタの視点から見た仮想空間の画像の一例を示す。ここでは、ユーザAのキャラクタの視野に、5人のユーザのキャラクタが含まれている様子が示される。それぞれのユーザキャラクタは、左から順に、ユーザB、ユーザD、ユーザF、ユーザG、ユーザHのキャラクタであるとする。なお、それ以外のユーザC、ユーザE、ユーザI、ユーザJのキャラクタについては、ユーザAのキャラクタの後ろにいたり、また建物の中に入っているなどの理由により、ユーザAのキャラクタの視野角内に存在せず、画像データには含まれていない。HMD100において、通信制御部128が情報処理装置10から画像データを受信し、制御部120が仮想空間画像を表示パネル130に表示する。   FIG. 7 shows an example of an image of the virtual space viewed from the viewpoint of the user A character. Here, a state where five user characters are included in the field of view of the user A character is shown. Each user character is assumed to be a character of user B, user D, user F, user G, and user H in order from the left. For the other users C, E, I, and J, the viewing angle of the user A's character is because it is behind the user A's character or in the building. It is not included in the image data. In the HMD 100, the communication control unit 128 receives image data from the information processing apparatus 10, and the control unit 120 displays a virtual space image on the display panel 130.

実施例ではサーバシステム4が観光地の仮想空間を複数のユーザシステム3に提供し、サーバシステム4のオペレータがツアーガイドとなり、また複数のユーザが旅行参加者となることで、複数のユーザがガイド付きで一緒に旅行するサービスを提供する。オペレータは管理サーバ5を操作して、音声ガイドを各ユーザシステム3に配信し、ユーザが移動する方向や注目する対象(オブジェクト)を音声で指定する。各ユーザシステム3において、サーバデータ受信部26が音声案内用の音声データを受信すると、音声提供部34が音声データをHMD100に送信する。HMD100において通信制御部128が音声データを受信し、制御部120が音声案内を音声出力部132からイヤホン(不図示)に出力する。   In the embodiment, the server system 4 provides a virtual space of a sightseeing spot to a plurality of user systems 3, an operator of the server system 4 becomes a tour guide, and a plurality of users become travel participants so that a plurality of users can guide. Provide a service to travel together. The operator operates the management server 5 to distribute a voice guide to each user system 3 and designates the direction in which the user moves and the target (object) to be noticed by voice. In each user system 3, when the server data receiving unit 26 receives voice data for voice guidance, the voice providing unit 34 transmits the voice data to the HMD 100. In HMD 100, communication control unit 128 receives voice data, and control unit 120 outputs voice guidance from voice output unit 132 to an earphone (not shown).

オペレータは、たとえば以下のような音声案内を行う。
「前方に続くアーケードをまっすぐ進んで下さい。」
「通路両脇にある建物は17世紀後半に建築されました。」
「足元の石畳は、当時のままの状態で残っています。」
各ユーザは音声案内にしたがってキャラクタを操作し、キャラクタが仮想空間を移動する。各ユーザのHMD100には、キャラクタの移動にともない、仮想空間画像が刻々と変化して表示される。
The operator performs the following voice guidance, for example.
“Go straight ahead in the arcade that follows.”
“The buildings on both sides of the passage were built in the late 17th century.”
“The cobblestones at the feet remain as they were at the time.”
Each user operates the character according to the voice guidance, and the character moves in the virtual space. On the HMD 100 of each user, the virtual space image is changed and displayed as the character moves.

なおキャラクタの移動は各ユーザの操作によるため、各ユーザキャラクタの仮想空間内の位置は様々である。管理サーバ5は、全てのユーザによるキャラクタの操作情報を受信しており、オペレータは、各ユーザのキャラクタの位置を把握している。そのため規定の移動ルートから外れたり、遅れたり又は先に行きすぎているユーザに対して、オペレータは個別に音声案内を提供できる。   In addition, since movement of a character is based on operation of each user, the position in the virtual space of each user character is various. The management server 5 receives character operation information from all users, and the operator knows the positions of the characters of the respective users. Therefore, the operator can individually provide voice guidance to a user who has deviated from a predetermined moving route, delayed or moved too far.

このような仮想空間において、注目するべきオブジェクトが存在する場合、ツアーガイドであるオペレータは、そのオブジェクトに注目させるように音声案内を行う。それは「通路脇にある看板に注目してください」というものであってよい。この音声案内により「説明イベント」が開始される。図7に示す画面例において、オブジェクト200が注目するべきオブジェクトとして設定されており、オペレータは、全てのユーザがオブジェクト200を見ていることを確認すると、オブジェクト200の注目ポイント(たとえば看板の店の歴史など)を説明する。注目ポイントの説明が終了すると、説明イベントは終了となり、次の注目オブジェクトへの移動案内が行われる。なお説明イベントの開始および終了は、オペレータにより任意のタイミングで行われてよい。   When there is an object to be noted in such a virtual space, an operator who is a tour guide performs voice guidance so as to pay attention to the object. It may be "Please pay attention to the signboard beside the aisle". An “explanation event” is started by this voice guidance. In the screen example shown in FIG. 7, the object 200 is set as an object to be noticed, and when the operator confirms that all users are looking at the object 200, the point of interest of the object 200 (for example, a signboard store) Explaining history). When the description of the point of interest ends, the explanation event ends, and movement guidance to the next target object is performed. The start and end of the explanation event may be performed at an arbitrary timing by the operator.

「通路脇にある看板に注目してください」とする音声案内が行われたときに、キャラクタがオブジェクト200の近傍にいれば、ユーザはオブジェクト200を比較的容易に見つけられるが、キャラクタがオブジェクト200から離れた位置にいる場合、ユーザはただちにオブジェクト200を見つけることが難しい。そこでビューワアプリケーションはユーザキャラクタの注目するべき方向を示唆するための画像を表示画像に含め、ユーザがオブジェクト200の位置を容易に認識できるようにする。   When the voice guidance “Please pay attention to the signboard beside the passage” is performed, if the character is in the vicinity of the object 200, the user can find the object 200 relatively easily. When it is away from the user, it is difficult for the user to find the object 200 immediately. Therefore, the viewer application includes an image for suggesting the direction of attention of the user character in the display image so that the user can easily recognize the position of the object 200.

管理サーバ5のオペレータは、「通路脇にある看板に注目してください」とする音声データを、複数のユーザの情報処理装置10に送信するとき、オブジェクト200の識別子(オブジェクトID)とともに、オブジェクト200の仮想空間内での3次元座標もあわせて送信する。以下、オブジェクトIDおよびオブジェクト3次元座標を「オブジェクト情報」と呼ぶ。   When the operator of the management server 5 transmits the voice data “Please pay attention to the signboard beside the passage” to the information processing apparatuses 10 of a plurality of users, the identifier of the object 200 (object ID) and the object 200 The three-dimensional coordinates in the virtual space are also transmitted. Hereinafter, the object ID and the object three-dimensional coordinates are referred to as “object information”.

情報処理装置10において、サーバデータ受信部26が、音声データおよびオブジェクト情報を受信すると、音声提供部34が音声データをHMD100に送信し、オブジェクト情報取得部46がオブジェクト情報を取得して判定部54に供給する。HMD100に送信された音声データは、音声出力部132により出力される。   In the information processing apparatus 10, when the server data receiving unit 26 receives the audio data and the object information, the audio providing unit 34 transmits the audio data to the HMD 100, the object information acquiring unit 46 acquires the object information, and the determining unit 54 To supply. The audio data transmitted to the HMD 100 is output by the audio output unit 132.

判定部54は、別のユーザのキャラクタの位置および視線方向にもとづいて、別のユーザがオブジェクト200を現在見ているか否かを判定する。この判定処理は、別のユーザのキャラクタの位置に、当該キャラクタの視線方向を光軸とする仮想カメラを配置したときに、オブジェクト200が仮想カメラにより撮影されるか否かを判断する処理となる。基本的に判定部54は、キャラクタの視野角内にオブジェクト200の3次元座標が含まれていれば、別のユーザがオブジェクト200を見ていることを判定し、一方で視野角内にオブジェクト200の3次元座標が含まれていなければ、別のユーザがオブジェクト200を見ていないことを判定する。なお判定部54は、キャラクタの視野角内にオブジェクト200の3次元座標が含まれている場合であっても、キャラクタとオブジェクト200との間の別のオブジェクト(障害物)によりオブジェクト200が隠される場合には、別のユーザがオブジェクト200を見ていないことを判定する。   The determination unit 54 determines whether another user is currently looking at the object 200 based on the position and line-of-sight direction of another user's character. This determination process is a process for determining whether or not the object 200 is shot by the virtual camera when a virtual camera having the optical axis in the direction of the line of sight of the character is placed at the position of another user's character. . Basically, the determination unit 54 determines that another user is looking at the object 200 if the three-dimensional coordinates of the object 200 are included in the viewing angle of the character, while the object 200 is within the viewing angle. Is not included, it is determined that another user is not looking at the object 200. The determination unit 54 hides the object 200 by another object (obstacle) between the character and the object 200 even when the three-dimensional coordinates of the object 200 are included in the viewing angle of the character. In this case, it is determined that another user is not looking at the object 200.

以上の判定処理により、判定部54は、ユーザAとは別のユーザのキャラクタがオブジェクト200を見ているか否かを特定できる。図7に示す画面例で、判定部54は、ユーザB、ユーザD、ユーザF、ユーザGのキャラクタがオブジェクト200を見ていることを判定し、一方でユーザHのキャラクタがオブジェクト200を見ていないことを判定する。判定部54は判定結果を画像生成部56に提供する。   With the above determination processing, the determination unit 54 can specify whether or not a user character different from the user A is looking at the object 200. In the screen example illustrated in FIG. 7, the determination unit 54 determines that the characters of the user B, the user D, the user F, and the user G are looking at the object 200, while the character of the user H is looking at the object 200. Judge that there is no. The determination unit 54 provides the determination result to the image generation unit 56.

判定部54による判定処理は、周期的に実施されてよく、判定周期は、キャラクタの動作制御周期と同じであってよい。つまりキャラクタ制御部52は、ユーザAのキャラクタおよび別のユーザのキャラクタの動作を周期的に制御するが、判定部54は、その周期にあわせて判定処理を実施してよい。   The determination process by the determination unit 54 may be performed periodically, and the determination cycle may be the same as the character's motion control cycle. That is, the character control unit 52 periodically controls the actions of the user A's character and another user's character, but the determination unit 54 may perform the determination process in accordance with the cycle.

画像生成部56は、判定部54による判定結果をもとに、別のユーザのキャラクタが見ている方向を示す方向画像を含む画像データを生成する。ここで別のユーザのキャラクタがオブジェクト200を見ている場合、方向画像は、別のユーザのキャラクタの視線方向を示すものであってもよいが、別のユーザのキャラクタからオブジェクト200に向かう方向を示すものであってよい。なお別のユーザのキャラクタがオブジェクト200を見ていない場合、方向画像は、キャラクタの視線方向を示す画像となる。   The image generation unit 56 generates image data including a direction image indicating the direction in which another user's character is looking based on the determination result by the determination unit 54. Here, when another user's character is looking at the object 200, the direction image may indicate the line-of-sight direction of the other user's character, but the direction from the other user's character toward the object 200 may be It may be shown. When another user's character is not looking at the object 200, the direction image is an image showing the line-of-sight direction of the character.

キャラクタの視線方向と、キャラクタからオブジェクト200に向かう方向について説明する。実施例においてキャラクタの視線方向は、ユーザが装着しているHMD100が向いている方向であって、且つキャラクタの両眼の中心から延びる方向である。HMD100に表示される画面に関して言えば、キャラクタの視線方向は、表示画面の中心を垂直につらぬく方向である。   The direction of the character's line of sight and the direction from the character toward the object 200 will be described. In the embodiment, the line-of-sight direction of the character is a direction in which the HMD 100 worn by the user is facing and a direction extending from the center of both eyes of the character. With regard to the screen displayed on the HMD 100, the line-of-sight direction of the character is a direction that cuts the center of the display screen vertically.

一方、キャラクタからオブジェクト200に向かう方向について説明すると、図7に示す表示画面は、ユーザAのHMD100に表示される画面であるが、オブジェクト200は画面中心よりもやや左上に含まれている。この場合、キャラクタからオブジェクト200に向かう方向は、視線方向に平行とはならない。なおオブジェクト200が表示画面の中心に位置するようにユーザAがHMD100を動かす場合には、視線方向は、キャラクタからオブジェクト200に向かう方向に一致する。   On the other hand, the direction from the character toward the object 200 will be described. The display screen shown in FIG. 7 is a screen displayed on the HMD 100 of the user A, but the object 200 is included slightly in the upper left from the screen center. In this case, the direction from the character toward the object 200 is not parallel to the line-of-sight direction. When the user A moves the HMD 100 so that the object 200 is positioned at the center of the display screen, the line-of-sight direction coincides with the direction from the character toward the object 200.

図8は、3次元仮想空間をレンダリングした画像に方向画像を含めた画面例を示す。画像生成部56は、ユーザB、ユーザD、ユーザF、ユーザGのそれぞれのキャラクタからオブジェクト200に向かう方向を示す方向画像202b、202d、202f、202gと、ユーザHのキャラクタの視線方向を示す方向画像202hを含む画像データを生成する。ここでオブジェクト200を見ているキャラクタに対して付加する方向画像202b、202d、202f、202gと、オブジェクト200を見ていないキャラクタに対して付加する方向画像202hは、異なる表示態様となるように生成される。   FIG. 8 shows an example of a screen in which a direction image is included in an image obtained by rendering a three-dimensional virtual space. The image generation unit 56 includes direction images 202b, 202d, 202f, and 202g that indicate directions from the respective characters of the user B, the user D, the user F, and the user G toward the object 200, and a direction that indicates the line-of-sight direction of the user H character. Image data including the image 202h is generated. Here, the direction images 202b, 202d, 202f, and 202g to be added to the character viewing the object 200 and the direction image 202h to be added to the character not viewing the object 200 are generated so as to have different display modes. Is done.

図8に示す画面例で、方向画像202b、202d、202f、202gは、実線の矢印画像であり、方向画像202hは、点線の矢印画像であるが、表示態様はこれに限るものではない。たとえば方向画像202b、202d、202f、202gを赤色、方向画像202hを青色など、異なる色で表現してもよい。いずれにしても表示態様を異ならせることで、ユーザAが、どのキャラクタがオブジェクト200を見ているか、またどのキャラクタがオブジェクト200を見ていないかを容易に認識できる。   In the screen example shown in FIG. 8, the direction images 202b, 202d, 202f, and 202g are solid line arrow images, and the direction image 202h is a dotted line arrow image, but the display mode is not limited to this. For example, the direction images 202b, 202d, 202f, and 202g may be expressed in different colors such as red and the direction image 202h in blue. In any case, by changing the display mode, the user A can easily recognize which character is looking at the object 200 and which character is not looking at the object 200.

図8に示す画面例では、ユーザAが見ている表示画面にオブジェクト200は既に含まれているが、ユーザAはオブジェクト200に気付かないこともある。表示画面に方向画像202b、202d、202f、202gを含ませることで、ユーザAは、どのオブジェクトに注目するべきかを一目で分かる。なお方向画像202hはオブジェクト200に向いていないため、画像生成部56は、画像データに方向画像202hを含ませないようにしてもよい。   In the screen example shown in FIG. 8, the object 200 is already included in the display screen viewed by the user A, but the user A may not notice the object 200. By including the directional images 202b, 202d, 202f, and 202g on the display screen, the user A can recognize at a glance which object to focus on. Since the direction image 202h does not face the object 200, the image generation unit 56 may not include the direction image 202h in the image data.

図9は、3次元仮想空間をレンダリングした画像に方向画像を含めた別の画面例を示す。図8では、画面左上の看板が注目オブジェクトである場合について説明したが、図9では、その看板は実は注目オブジェクトではなく、別の看板が注目オブジェクトであった例について説明する。   FIG. 9 shows another screen example in which a direction image is included in an image obtained by rendering a three-dimensional virtual space. Although the case where the signboard at the upper left of the screen is an attention object has been described with reference to FIG. 8, an example in which the signboard is not actually the attention object and another signboard is the attention object will be described.

このとき、ユーザB、ユーザD、ユーザF、ユーザGのキャラクタは、間違ったオブジェクトに注目している。そのため各キャラクタに付加される方向画像は、注目オブジェクトを見ていないことを示す点線矢印画像となっている。   At this time, the characters of the user B, the user D, the user F, and the user G are paying attention to the wrong object. Therefore, the direction image added to each character is a dotted arrow image indicating that the object of interest is not viewed.

ここでユーザHのキャラクタに付加される方向画像は、実線矢印画像であり、正しく注目オブジェクトを見ていることを示している。これにより図9に示す画面を見たユーザAは、ユーザHの目線の先に注目オブジェクトが存在していることを認識する。   Here, the direction image added to the character of the user H is a solid line arrow image, which indicates that the object of interest is correctly viewed. As a result, the user A who sees the screen shown in FIG. 9 recognizes that the object of interest exists beyond the line of sight of the user H.

仮想空間において、あるオブジェクトに注目させたい場合、当該オブジェクトを目立たせるような(たとえば点滅させるような)エフェクトを施すことも有効である。しかしながら、そもそもオブジェクトが表示画面に含まれていない場合には、ユーザがエフェクトを認識できない。そこで図9に示すように、正しくオブジェクトに注目しているユーザのキャラクタに方向画像を付加することで、ユーザは、表示画面に含まれていないオブジェクトの場所を確認できるようになる。   When it is desired to pay attention to an object in the virtual space, it is also effective to apply an effect that makes the object stand out (for example, blinks). However, if the object is not included in the display screen, the user cannot recognize the effect. Therefore, as shown in FIG. 9, by adding a direction image to the user's character who is correctly paying attention to the object, the user can check the location of the object not included in the display screen.

現実世界でツアーに参加した場合であっても、ツアーガイドの説明をよく聞いていなかったために、なにに注目するべきか分からないことがある。そのような場合、人は、周りの人の動きから注目するべきものが何であるかを想像する。実施例では、別のユーザのキャラクタに方向画像を付加することで、ユーザAが注目オブジェクトを認識しやすくしており、仮想空間のツアー参加者は、現実世界に似た感覚で注目オブジェクトを探し出せる。   Even if you take a tour in the real world, you may not know what to pay attention to because you didn't listen to the tour guide. In such a case, the person imagines what should be noted from the movements of those around him. In the embodiment, by adding a direction image to another user's character, the user A can easily recognize the object of interest, and the tour participant in the virtual space can find the object of interest with a sense similar to the real world. .

実施例では方向画像を矢印で表現したが、これに限定するものではない。たとえばキャラクタの視野角を表現するべく、キャラクタ位置を頂点として注目オブジェクトに延びる錐体の方向画像を使用してもよい。また方向画像は半透明の色を付されて、方向画像の背景となる空間画像の視認性を確保してもよい。   In the embodiment, the direction image is represented by an arrow, but the present invention is not limited to this. For example, in order to express the viewing angle of the character, a direction image of a cone extending to the object of interest with the character position as a vertex may be used. The direction image may be given a translucent color to ensure the visibility of the spatial image serving as the background of the direction image.

なおユーザは一度オブジェクトを認識すると、その後、オペレータからの説明が開始されるまでの間、常にオブジェクトを見続けるとは限らない。他のユーザのオブジェクト設置地点への到着が遅れており、オペレータの説明がまだ開始されないのであれば、周囲の光景を見渡すことも観光の醍醐味である。そのため、あるユーザが遅れてオブジェクト設置地点に到着したときには、他の全てのユーザがオブジェクトを見ていないことも想定される。   Note that once the user recognizes the object, the user does not always continue to see the object until the explanation from the operator is started. If the arrival of other users at the object installation point is delayed and the explanation of the operator has not started yet, it is also a pleasure of sightseeing to look around the surrounding scene. Therefore, when a certain user arrives at the object installation point with a delay, it is assumed that all other users do not see the object.

そこで画像生成部56は、キャラクタが現時点で注目オブジェクトを見ていなくても、過去に注目オブジェクトを見ていたことがあれば、そのキャラクタに、注目オブジェクトに向かう方向を示す方向画像を付加してもよい。たとえば画像生成部56は、当該キャラクタが、最後に注目オブジェクトを見た時刻から所定時間内に限って、注目オブジェクトに向かう方向を示す方向画像を付加してもよい。この方向画像は、注目オブジェクトの位置を示すヒントとなり、オブジェクト設置位置に遅れてくるユーザのオブジェクト探索をアシストする。しかしながら、あまりにも遅れてオブジェクト設置位置に到着するユーザは他のユーザに大きな迷惑をかけているため、注目オブジェクトに向かう方向を示す方向画像の表示時間を所定時間に限定することで、アシストに制限をかけてもよい。   Therefore, if the character has not seen the object of interest at the current time but has seen the object of interest in the past, the image generation unit 56 adds a direction image indicating the direction toward the object of interest to the character. Also good. For example, the image generation unit 56 may add a direction image indicating a direction toward the target object only within a predetermined time from the time when the character last viewed the target object. This direction image serves as a hint indicating the position of the object of interest, and assists the user in searching for an object that is delayed from the object installation position. However, since the user who arrives at the object installation position too late causes great trouble to other users, the display time of the direction image indicating the direction toward the object of interest is limited to the predetermined time, thereby limiting the assist. You may spend.

なお画像生成部56は、当該キャラクタが最後に注目オブジェクトを見た時刻における位置から所定距離内にいる場合に限って、注目オブジェクトに向かう方向を示す方向画像を付加してもよい。当該キャラクタが同じ位置にとどまっている場合には、その地点から方向画像を付加すればよいが、たとえば当該キャラクタが移動して、周囲を散策しているような場合は、もはや注目オブジェクトを見られない位置にいる可能性もある。そこで画像生成部56は、当該キャラクタの現在位置にしたがって、過去に見た注目オブジェクトに向かう方向を示す方向画像を付加するか否かを決定してもよい。   Note that the image generation unit 56 may add a direction image indicating the direction toward the target object only when the character is within a predetermined distance from the position at the time when the target object was last viewed. If the character stays at the same position, a direction image may be added from that point. For example, when the character moves and walks around, the object of interest can no longer be seen. You may be in a position that is not. Therefore, the image generation unit 56 may determine whether or not to add a direction image indicating the direction toward the target object seen in the past according to the current position of the character.

なお実施例では、複数のユーザが旅行参加者となるサービスについて説明したが、サーバシステム4におけるオペレータないしはそれに準ずる者が、ダミー参加者としてツアーに参加してもよい。ダミー参加者は、旅行の全容を把握しており、快適なツアーを陰からアシストする役割を担う。たとえば、どのユーザも注目オブジェクトを見つけられないような場合に、ダミー参加者が注目オブジェクトに視線を向けることで、他のユーザは、ダミー参加者のキャラクタから注目オブジェクトに向かう方向画像を見て、注目オブジェクトの場所を認識できるようになる。   In addition, although the Example demonstrated the service in which a some user becomes a travel participant, the operator in the server system 4 or the person according to it may participate in a tour as a dummy participant. The dummy participant knows the whole of the trip and plays the role of assisting with a comfortable tour behind the scenes. For example, when no user can find the target object, the dummy participant looks at the target object, so that other users see the direction image from the dummy participant character toward the target object, The location of the object of interest can be recognized.

なお実際にオペレータがダミー参加者としてツアーに参加するのではなく、管理サーバ5が所定のルールにより動作するキャラクタをツアーに参加させてもよい。このキャラクタはいわゆるノンプレイヤーキャラクタ(NPC)であり、実施例では「非操作キャラクタ」と呼ぶ。このときサービス提供主体は、参加するキャラクタに非操作キャラクタが紛れ込んでいることを、ユーザに知らせないことが好ましい。   It should be noted that instead of the operator actually participating in the tour as a dummy participant, the management server 5 may allow a character that operates according to a predetermined rule to participate in the tour. This character is a so-called non-player character (NPC) and is called a “non-operation character” in the embodiment. At this time, it is preferable that the service providing entity does not notify the user that the non-operation characters are mixed in with the participating characters.

管理サーバ5は、非操作キャラクタを動かすための操作情報を、各ユーザの情報処理装置10に送信する。情報処理装置10において、サーバデータ受信部26が、管理サーバ5から非操作キャラクタの操作情報を受信すると、第2操作情報取得部44が、非操作キャラクタの操作情報を取得し、キャラクタ制御部52に供給する。非操作キャラクタの操作情報は、別のユーザの操作情報と同様に扱われる。   The management server 5 transmits operation information for moving the non-operation character to the information processing apparatus 10 of each user. In the information processing apparatus 10, when the server data receiving unit 26 receives the operation information of the non-operation character from the management server 5, the second operation information acquisition unit 44 acquires the operation information of the non-operation character, and the character control unit 52. To supply. The operation information of the non-operation character is handled in the same manner as the operation information of another user.

管理サーバ5は、説明イベントの開始後、所定の条件が成立した場合に、非操作キャラクタが注目オブジェクトを見るように動かすための操作情報を、各情報処理装置10に送信する。たとえば説明イベントの開始後から所定時間内に、どのユーザも注目オブジェクトを見つけられない場合に、非操作キャラクタが注目オブジェクトを見るように動作する。これにより非操作キャラクタから注目オブジェクトに向かう方向を示す方向画像が表示されることになり、ユーザは、注目オブジェクトの場所を認識できるようになる。非操作オブジェクトの利用は、管理サーバ5側で、ダミー参加者のキャラクタを操作しなくてよいため効率的である。なお管理サーバ5では、非操作キャラクタをダミー参加者による操作キャラクタに、またはダミー参加者による操作キャラクタを非操作キャラクタに自在に切り替えられることが好ましい。   When a predetermined condition is satisfied after the start of the explanation event, the management server 5 transmits operation information for moving the non-operation character so as to see the target object to each information processing apparatus 10. For example, if no user finds the target object within a predetermined time after the start of the explanatory event, the non-operation character operates so as to see the target object. As a result, a direction image indicating the direction from the non-operation character toward the target object is displayed, and the user can recognize the location of the target object. The use of the non-operation object is efficient because it is not necessary to operate the dummy participant character on the management server 5 side. In the management server 5, it is preferable that the non-operation character can be freely switched to the operation character by the dummy participant, or the operation character by the dummy participant can be freely switched to the non-operation character.

以上、本発明を実施例をもとに説明した。実施例は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。   In the above, this invention was demonstrated based on the Example. It is to be understood by those skilled in the art that the embodiments are exemplifications, and that various modifications can be made to combinations of the respective components and processing processes, and such modifications are within the scope of the present invention.

実施例では、HMD100の向いている方向をユーザの視線方向として利用したが、ユーザの目の動きを検出してユーザの真の視線方向を検出できる場合には、その視線方向を利用してよい。   In the embodiment, the direction in which the HMD 100 is directed is used as the user's line-of-sight direction. .

また実施例で説明したサービスにおいて、ユーザが注目オブジェクトを探しやすくするために、入力装置16を利用できるようにしてもよい。たとえば入力装置16に姿勢センサを搭載し、入力装置16の姿勢を変化させたときに、現実の3次元空間における入力装置16の姿勢方向と、仮想の3次元空間におけるユーザキャラクタから注目オブジェクトに向かう方向とが一致ないしは近似すると、入力装置16が振動したり、報知音が出力されることで、ユーザに注目オブジェクトの向きを知らせてもよい。入力装置16をオブジェクト探索に利用するメリットは、HMD100を装着したユーザが、首を動かして注目オブジェクトを探さなくてもよい点にある。たとえばHMD100の表示パネル130に、別のユーザキャラクタから注目オブジェクトに向かう方向を示す方向画像が表示されていない場合、入力装置16を用いて注目オブジェクトを探索することで、いち早く注目オブジェクトを見つけられるようになる。たとえば宝探しのように、オブジェクトを見つけることを目的とするサービスでは、このような入力装置16の機能が有用に利用されると考えられる。   In the service described in the embodiment, the input device 16 may be used so that the user can easily find the object of interest. For example, when a posture sensor is mounted on the input device 16 and the posture of the input device 16 is changed, the posture direction of the input device 16 in the actual three-dimensional space and the user character in the virtual three-dimensional space are directed to the target object. When the direction matches or approximates, the input device 16 may vibrate or a notification sound is output to notify the user of the direction of the object of interest. The advantage of using the input device 16 for object search is that the user wearing the HMD 100 does not have to move the neck to search for the object of interest. For example, when a direction image indicating a direction from another user character toward the target object is not displayed on the display panel 130 of the HMD 100, the target object can be quickly found by searching for the target object using the input device 16. become. For example, in a service such as a treasure hunt that aims to find an object, it is considered that such a function of the input device 16 is usefully used.

また実施例の情報処理システム1では、図6に示す処理機能を情報処理装置10にもたせたが、管理サーバ5にもたせてもよい。この場合、管理サーバ5は、実施例の情報処理装置10の機能を備えたクラウドサーバとなり、各ユーザシステム3に対して個別に生成した画像データを提供する。   Further, in the information processing system 1 of the embodiment, the processing function shown in FIG. In this case, the management server 5 becomes a cloud server having the function of the information processing apparatus 10 of the embodiment, and provides each user system 3 with individually generated image data.

1・・・情報処理システム、3・・・ユーザシステム、4・・・サーバシステム、5・・・管理サーバ、6・・・記憶装置、7・・・コンテンツDB、8・・・ユーザ挙動DB、10・・・情報処理装置、15・・・出力装置、20・・・センサデータ受信部、22・・・撮影画像受信部、24・・・入力データ受信部、26・・・サーバデータ受信部、30・・・操作情報送信部、32・・・画像提供部、34・・・音声提供部、40・・・取得部、42・・・第1操作情報取得部、44・・・第2操作情報取得部、46・・・オブジェクト情報取得部、50・・・処理部、52・・・キャラクタ制御部、54・・・判定部、56・・・画像生成部、100・・・HMD。 DESCRIPTION OF SYMBOLS 1 ... Information processing system, 3 ... User system, 4 ... Server system, 5 ... Management server, 6 ... Storage device, 7 ... Content DB, 8 ... User behavior DB DESCRIPTION OF SYMBOLS 10 ... Information processing apparatus, 15 ... Output device, 20 ... Sensor data receiving part, 22 ... Captured image receiving part, 24 ... Input data receiving part, 26 ... Server data reception , 30... Operation information transmission unit, 32... Image providing unit, 34... Voice providing unit, 40... Acquisition unit, 42. 2 operation information acquisition unit, 46 ... object information acquisition unit, 50 ... processing unit, 52 ... character control unit, 54 ... determination unit, 56 ... image generation unit, 100 ... HMD .

Claims (6)

アプリケーションの画像データを表示装置に出力する情報処理装置であって、
仮想空間においてユーザのキャラクタを動かすための操作情報を取得する取得部と、
当該ユーザとは別のユーザのキャラクタを含む画像データを、表示装置に出力する画像提供部と、を備え、前記画像提供部は、別のユーザのキャラクタが見ている方向および/または見ていた方向を示す方向画像を含む画像データを、前記表示装置に出力するものであって
仮想空間には、ユーザが注目するべきオブジェクトが設定されており、
別のユーザのキャラクタの視野角内に前記オブジェクトが含まれていれば、別のユーザのキャラクタから前記オブジェクトに向かう方向を示す方向画像が画像データに含まれ、別のユーザのキャラクタの視野角内に前記オブジェクトが含まれていなければ、別のユーザの視線方向を示す方向画像が画像データに含まれる、情報処理装置。
An information processing device that outputs image data of an application to a display device,
An acquisition unit for acquiring operation information for moving the user's character in the virtual space;
An image providing unit that outputs image data including a character of a user different from the user to a display device, and the image providing unit was viewing and / or viewing the character of another user the image data including the direction image indicating the direction, there is to be output to the display device,
In the virtual space, objects that the user should pay attention to are set,
If the object is included in the viewing angle of another user's character, the image data includes a direction image indicating the direction from the other user's character toward the object, and is within the viewing angle of the other user's character. If the object is not included in the image information, the image data includes a direction image indicating the direction of the line of sight of another user .
前記取得部は、仮想空間において別のユーザのキャラクタを動かすための操作情報を取得し、
当該情報処理装置は、
仮想空間における当該ユーザのキャラクタの動作、および当該ユーザとは別のユーザのキャラクタの動作を、前記取得部が取得したそれぞれの操作情報にもとづいて制御する制御部と、
仮想空間における当該ユーザのキャラクタの位置にもとづいて、別のユーザのキャラクタを含む画像データを生成する画像生成部と、をさらに備える、
ことを特徴とする請求項1に記載の情報処理装置。
The acquisition unit acquires operation information for moving another user's character in the virtual space,
The information processing apparatus
A control unit that controls the movement of the user's character in the virtual space, and the movement of the user's character different from the user based on the respective operation information acquired by the acquisition unit;
An image generation unit that generates image data including another user's character based on the position of the user's character in the virtual space;
The information processing apparatus according to claim 1.
画像データには、前記オブジェクトを見ているおよび/または見ていたキャラクタに対して付加される方向画像と、前記オブジェクトを見ていないキャラクタに対して付加される方向画像とが、異なる表示態様で含まれている、
ことを特徴とする請求項1または2に記載の情報処理装置。
In the image data, a direction image added to a character watching and / or watching the object and a direction image added to a character not watching the object are displayed in different display modes. include,
The information processing apparatus according to claim 1, wherein the information processing apparatus is an information processing apparatus.
ユーザの頭部に装着されたヘッドマウントディスプレイの姿勢を検出する検出部を、さらに備え、
前記取得部は、前記検出部により検出されたヘッドマウントディスプレイの姿勢情報を、ユーザのキャラクタを動かすための操作情報として取得する、
ことを特徴とする請求項1から3のいずれかに記載の情報処理装置。
A detection unit for detecting the posture of the head mounted display mounted on the user's head;
The acquisition unit acquires the posture information of the head mounted display detected by the detection unit as operation information for moving the user character.
The information processing apparatus according to claim 1, wherein the information processing apparatus is an information processing apparatus.
仮想空間においてユーザのキャラクタを動かすための操作情報を取得するステップと、
仮想空間において当該ユーザとは別のユーザのキャラクタを動かすための操作情報を取得するステップと、
当該ユーザのキャラクタの動作、および当該ユーザとは別のユーザのキャラクタの動作を、それぞれの操作情報にもとづいて制御するステップと、
仮想空間における当該ユーザのキャラクタの位置にもとづいて、別のユーザのキャラクタと、当該別のユーザのキャラクタが見ている方向および/または見ていた方向を示す方向画像を含む画像データを生成するステップと、を有し、
画像データを生成するステップは、
別のユーザのキャラクタの視野角内に所定のオブジェクトが含まれていれば、別のユーザのキャラクタから前記オブジェクトに向かう方向を示す方向画像を画像データに含ませ、別のユーザのキャラクタの視野角内に前記オブジェクトが含まれていなければ、別のユーザの視線方向を示す方向画像を画像データに含ませる、画像生成方法。
Obtaining operation information for moving the user's character in the virtual space;
Obtaining operation information for moving a character of a user different from the user in the virtual space;
Controlling the movement of the user's character and the movement of a user's character different from the user based on each operation information;
Step of generating image data including another user's character and a direction image showing the direction of the other user's character and / or a direction of viewing based on the position of the user's character in the virtual space And having
The step of generating image data is as follows:
If a predetermined object is included within the viewing angle of another user character, the image data includes a direction image indicating the direction from the other user character toward the object, and the viewing angle of the other user character. If the object is not included in the image data, a direction image indicating the direction of the line of sight of another user is included in the image data .
コンピュータに、
仮想空間においてユーザのキャラクタを動かすための操作情報を取得する機能と、
仮想空間において当該ユーザとは別のユーザのキャラクタを動かすための操作情報を取得する機能と、
当該ユーザのキャラクタの動作、および当該ユーザとは別のユーザのキャラクタの動作を、それぞれの操作情報にもとづいて制御する機能と、
仮想空間における当該ユーザのキャラクタの位置にもとづいて、別のユーザのキャラクタと、当該別のユーザのキャラクタが見ている方向および/または見ていた方向を示す方向画像を含む画像データを生成する機能と、を実現させるためのプログラムであって、
画像データを生成する機能は、
別のユーザのキャラクタの視野角内に所定のオブジェクトが含まれていれば、別のユーザのキャラクタから前記オブジェクトに向かう方向を示す方向画像を画像データに含ませ、別のユーザのキャラクタの視野角内に前記オブジェクトが含まれていなければ、別のユーザの視線方向を示す方向画像を画像データに含ませる機能を含む、プログラム。
On the computer,
A function of acquiring operation information for moving the user's character in the virtual space;
A function of acquiring operation information for moving a character of a user different from the user in the virtual space;
A function for controlling the movement of the user's character and the movement of a user's character different from the user based on each operation information;
A function for generating image data including another user's character and a direction of the other user's character and / or a direction image indicating the direction of viewing based on the position of the user's character in the virtual space a program for causing the the realization,
The function to generate image data is
If a predetermined object is included within the viewing angle of another user character, the image data includes a direction image indicating the direction from the other user character toward the object, and the viewing angle of the other user character. If the object is not included in the program, the program includes a function of including, in the image data, a direction image indicating the direction of the line of sight of another user.
JP2016213117A 2016-10-31 2016-10-31 Information processing apparatus and image generation method Active JP6615732B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016213117A JP6615732B2 (en) 2016-10-31 2016-10-31 Information processing apparatus and image generation method
PCT/JP2017/038377 WO2018079557A1 (en) 2016-10-31 2017-10-24 Information processing device and image generation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016213117A JP6615732B2 (en) 2016-10-31 2016-10-31 Information processing apparatus and image generation method

Publications (3)

Publication Number Publication Date
JP2018073172A JP2018073172A (en) 2018-05-10
JP2018073172A5 JP2018073172A5 (en) 2019-01-17
JP6615732B2 true JP6615732B2 (en) 2019-12-04

Family

ID=62025056

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016213117A Active JP6615732B2 (en) 2016-10-31 2016-10-31 Information processing apparatus and image generation method

Country Status (2)

Country Link
JP (1) JP6615732B2 (en)
WO (1) WO2018079557A1 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020129176A (en) * 2019-02-07 2020-08-27 ソニー株式会社 Information processing apparatus, information processing method, and program
JP7395172B2 (en) * 2019-06-07 2023-12-11 株式会社アルファコード Incentive grant system, incentive grant device, incentive grant method, and incentive management program in virtual reality space
JP2021121912A (en) * 2020-01-31 2021-08-26 ソニーグループ株式会社 Information processing device and information processing method
JP2021121913A (en) * 2020-01-31 2021-08-26 ソニーグループ株式会社 Information processing device and information processing method
JP7324469B2 (en) 2021-06-28 2023-08-10 グリー株式会社 Information processing system, information processing method, information processing program
JPWO2023276156A1 (en) * 2021-07-02 2023-01-05
JPWO2023026628A1 (en) * 2021-08-25 2023-03-02
JP2023148674A (en) * 2022-03-30 2023-10-13 株式会社バンダイナムコエンターテインメント Computer system, virtual space control system and virtual space control method

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002113261A (en) * 2000-07-06 2002-04-16 Sony Computer Entertainment Inc Game system, storage medium and entertainment device
JP4262011B2 (en) * 2003-07-30 2009-05-13 キヤノン株式会社 Image presentation method and apparatus
JP2016158795A (en) * 2015-02-27 2016-09-05 株式会社ソニー・インタラクティブエンタテインメント Display control program, display control apparatus, and display control method
US10062208B2 (en) * 2015-04-09 2018-08-28 Cinemoi North America, LLC Systems and methods to provide interactive virtual environments

Also Published As

Publication number Publication date
WO2018079557A1 (en) 2018-05-03
JP2018073172A (en) 2018-05-10

Similar Documents

Publication Publication Date Title
JP6615732B2 (en) Information processing apparatus and image generation method
JP6058184B1 (en) Method and program for controlling head mounted display system
JP6845111B2 (en) Information processing device and image display method
JP6807455B2 (en) Information processing device and image generation method
US20160292924A1 (en) System and method for augmented reality and virtual reality applications
WO2017086263A1 (en) Image processing device and image generation method
JP6298561B1 (en) Program executed by computer capable of communicating with head mounted device, information processing apparatus for executing the program, and method executed by computer capable of communicating with head mounted device
JP6462059B1 (en) Information processing method, information processing program, information processing system, and information processing apparatus
JP6242473B1 (en) Method for providing virtual space, program for causing computer to execute the method, and information processing apparatus for executing the program
JP6342024B1 (en) Method for providing virtual space, program for causing computer to execute the method, and information processing apparatus for executing the program
JP2019087226A (en) Information processing device, information processing system, and method of outputting facial expression images
KR20200060361A (en) Information processing apparatus, information processing method, and program
WO2015048890A1 (en) System and method for augmented reality and virtual reality applications
JP2019046291A (en) Information processing apparatus and image display method
JP2019128721A (en) Program for reflecting user motion on avatar, information processing device for executing the same and method for distributing image containing avatar
JP6518645B2 (en) INFORMATION PROCESSING APPARATUS AND IMAGE GENERATION METHOD
JP2020145654A (en) Moving image display system, information processing device, and moving image display method
US20190089899A1 (en) Image processing device
JP6999538B2 (en) Information processing methods, information processing programs, information processing systems, and information processing equipment
US11310472B2 (en) Information processing device and image generation method for projecting a subject image onto a virtual screen
JP2022015647A (en) Information processing apparatus and image display method
JP6921204B2 (en) Information processing device and image output method
JP2017162443A (en) Method and program for controlling head-mounted display system
US20240205513A1 (en) Video display system, information processing device, information processing method, and recording medium
JP2018156675A (en) Method for presenting virtual space, program for causing computer to execute the same method, and information processing device for executing the same program

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181126

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191023

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191106

R150 Certificate of patent or registration of utility model

Ref document number: 6615732

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150