JP2013239766A - Application management device, application management device control method, and application management device control program - Google Patents

Application management device, application management device control method, and application management device control program Download PDF

Info

Publication number
JP2013239766A
JP2013239766A JP2012109515A JP2012109515A JP2013239766A JP 2013239766 A JP2013239766 A JP 2013239766A JP 2012109515 A JP2012109515 A JP 2012109515A JP 2012109515 A JP2012109515 A JP 2012109515A JP 2013239766 A JP2013239766 A JP 2013239766A
Authority
JP
Japan
Prior art keywords
application
moving image
user
user terminal
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012109515A
Other languages
Japanese (ja)
Other versions
JP2013239766A5 (en
Inventor
Yasumasa Kaneko
泰正 金子
Naoya KIHARA
直也 木原
Takahiro Yoshida
貴裕 吉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konami Digital Entertainment Co Ltd
Original Assignee
Konami Digital Entertainment Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konami Digital Entertainment Co Ltd filed Critical Konami Digital Entertainment Co Ltd
Priority to JP2012109515A priority Critical patent/JP2013239766A/en
Priority to PCT/JP2013/061745 priority patent/WO2013168547A1/en
Publication of JP2013239766A publication Critical patent/JP2013239766A/en
Publication of JP2013239766A5 publication Critical patent/JP2013239766A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/35Details of game servers
    • A63F13/355Performing operations on behalf of clients with restricted processing capabilities, e.g. servers transform changing game scene into an MPEG-stream for transmitting to a mobile phone or a thin client
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/40Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of platform network

Abstract

PROBLEM TO BE SOLVED: To use an application via a network.SOLUTION: An application management device comprises: plural application processors corresponding to each of user terminals, the application processors performing predetermined arithmetic processing on the basis of instruction information transmitted from each of the user terminals and generating moving images based on the arithmetic result; a synthesizing unit which generates a synthetic moving image by synthesizing the moving images generated in accordance with each of the user terminals by the application processors, so as to be displayed in each predetermined area on a screen; and a transmitter which transmits to the user terminals the synthetic moving image generated by the synthesizing unit.

Description

本発明は、アプリケーション管理装置、アプリケーション管理装置の制御方法、アプリケーション管理装置の制御プログラムに関する。   The present invention relates to an application management apparatus, an application management apparatus control method, and an application management apparatus control program.

ユーザ端末においてアプリケーションを利用する際には、ユーザ端末に予めアプリケーションプログラムをインストールし、ユーザ端末がアプリケーションプログラムに基づいて演算処理を行い、演算結果に基づいて画面を変化させて表示するものが一般的である。これに対し、ユーザ端末にアプリケーションプログラムをインストールせず、インターネット等のネットワークを介してアプリケーションを利用させるアプリケーションシステムが提案されている。例えば、ユーザ端末がインターネット等のネットワークを介してアプリケーションサーバに接続し、ユーザから入力される指示情報をアプリケーションサーバに送信する。アプリケーションサーバは、ユーザ端末から送信される指示情報に応じて所定の演算処理を行い、演算結果に基づく結果を反映した画面をリアルタイムにそのユーザ端末にストリーミング配信する。これによれば、ユーザ端末が行う処理は入力と出力のみであるため、アプリケーションプログラムをインストールすることなく、従来と同様の演算結果に基づく画面を表示することができる。このようなアプリケーションシステムにより、例えばデスクトップサービスや、クラウドゲームなどのサービスが提案されている(例えば、特許文献1参照)。   When using an application in a user terminal, an application program is installed in the user terminal in advance, the user terminal performs arithmetic processing based on the application program, and changes and displays the screen based on the calculation result. It is. On the other hand, there has been proposed an application system that uses an application via a network such as the Internet without installing an application program in a user terminal. For example, a user terminal connects to an application server via a network such as the Internet, and transmits instruction information input from the user to the application server. The application server performs predetermined calculation processing according to the instruction information transmitted from the user terminal, and distributes a screen reflecting the result based on the calculation result to the user terminal in real time. According to this, since the processes performed by the user terminal are only input and output, it is possible to display a screen based on the same calculation result as before without installing an application program. With such application systems, services such as desktop services and cloud games have been proposed (see, for example, Patent Document 1).

特開2011−182031号公報JP 2011-182031 A

しかしながら、上述のようなアプリケーションシステムにおいては、アプリケーションの演算処理がアプリケーションサーバに置き換わっているものの、従来から動作していたアプリケーションと同様の結果画面をユーザ端末に表示させるものであり、アプリケーションの機能自体に付加価値を提供するものではなかった。そこで、ネットワークを介してアプリケーションを提供するアプリケーションシステムにおいて、より豊かなアプリケーション体験を提供することが望ましい。   However, in the application system as described above, although the calculation processing of the application is replaced with the application server, the result screen similar to the application that has been operating conventionally is displayed on the user terminal, and the function of the application itself It did not provide added value. Therefore, it is desirable to provide a richer application experience in an application system that provides applications via a network.

本発明は、このような状況に鑑みてなされたもので、ネットワークを介してアプリケーションを利用させることが可能なアプリケーション管理装置、アプリケーション管理装置の制御方法、アプリケーション管理装置の制御プログラムを提供する。   The present invention has been made in view of such circumstances, and provides an application management apparatus, an application management apparatus control method, and an application management apparatus control program capable of using an application via a network.

上述した課題を解決するために、本発明は、複数のユーザ端末のそれぞれから送信される指示情報に基づいて所定の演算処理を行い、演算結果に基づく動画を生成する、各ユーザ端末のそれぞれに対応した複数のアプリケーション処理部と、複数のアプリケーション処理部によって、複数のユーザ端末のそれぞれに応じて生成された動画を、画面における所定の領域ごとに表示されるように合成した合成動画を生成する合成部と、合成部によって生成された合成動画を、ユーザ端末に送信する送信部と、を備えることを特徴とするアプリケーション管理装置である。   In order to solve the above-described problem, the present invention performs a predetermined calculation process based on instruction information transmitted from each of a plurality of user terminals, and generates a moving image based on the calculation result. A plurality of corresponding application processing units and a plurality of application processing units generate a composite video that combines videos generated according to each of a plurality of user terminals so that they are displayed for each predetermined area on the screen. An application management apparatus comprising: a synthesis unit; and a transmission unit that transmits a synthesized moving image generated by the synthesis unit to a user terminal.

また、本発明は、合成部が、第1のユーザ端末からの指示情報に基づいて生成された動画が表示される画面内の領域の大きさが、第2のユーザ端末からの指示情報に基づいて生成された動画が表示される画面内の領域の大きさに対して相対的に大きい合成動画を生成し、送信部は、第1のユーザ端末に対して合成動画を送信することを特徴とする。   Further, according to the present invention, the size of the area in the screen on which the combining unit displays the moving image generated based on the instruction information from the first user terminal is based on the instruction information from the second user terminal. Generating a synthesized video that is relatively large relative to the size of the area in the screen on which the generated video is displayed, and the transmission unit transmits the synthesized video to the first user terminal. To do.

また、本発明は、ユーザ端末に対して送信する合成動画における画面内に他のユーザ端末からの指示情報に基づいて生成された動画を合成する領域の属性を定義した合成定義情報を記憶する合成定義情報記憶部を備え、合成部が、合成定義情報に基づいて、ユーザ端末に送信する合成動画を生成することを特徴とする。   In addition, the present invention stores composition definition information that defines attributes of a region in which a moving image generated based on instruction information from another user terminal is synthesized within a screen of a synthesized moving image transmitted to a user terminal. A definition information storage unit is provided, and the synthesis unit generates a synthesized moving image to be transmitted to the user terminal based on the synthesis definition information.

また、本発明は、アプリケーション処理部が、ゲーム処理である演算処理の演算結果に基づいて動画を生成することを特徴とする。   Further, the present invention is characterized in that the application processing unit generates a moving image based on a calculation result of a calculation process that is a game process.

また、本発明は、アプリケーション管理装置の制御方法であって、複数のユーザ端末のそれぞれに対応した複数のアプリケーション処理部のそれぞれが、対応するユーザ端末から送信される指示情報に基づいて所定の演算処理を行い、演算結果に基づく動画を生成するステップと、複数のアプリケーション処理部によって、複数のユーザ端末のそれぞれに応じて生成された動画を、画面における所定の領域ごとに表示されるように合成した合成動画を生成するステップと、生成した合成動画を、ユーザ端末に送信するステップと、を備えることを特徴とする。   The present invention is also a method for controlling an application management apparatus, wherein each of a plurality of application processing units corresponding to each of a plurality of user terminals performs a predetermined calculation based on instruction information transmitted from the corresponding user terminal. A step of generating a moving image based on the calculation result and a plurality of application processing units are combined so that the moving image generated according to each of the plurality of user terminals is displayed for each predetermined area on the screen. A step of generating the synthesized moving image, and a step of transmitting the generated synthesized moving image to the user terminal.

また、本発明は、アプリケーション管理装置のコンピュータを、複数のユーザ端末のそれぞれから送信される指示情報に基づいて所定の演算処理を行い、演算結果に基づく動画を生成する、各ユーザ端末のそれぞれに対応した複数のアプリケーション処理部、複数のアプリケーション処理部によって、複数のユーザ端末のそれぞれに応じて生成された動画を、画面における所定の領域ごとに表示されるように合成した合成動画を生成する合成部、合成部によって生成された合成動画を、ユーザ端末に送信する送信部、として機能させるための制御プログラムである。   Further, the present invention provides a computer of the application management apparatus for each user terminal that performs predetermined calculation processing based on instruction information transmitted from each of a plurality of user terminals and generates a moving image based on the calculation result. Combining a plurality of corresponding application processing units and a plurality of application processing units to generate a combined moving image generated by combining a moving image generated according to each of a plurality of user terminals so as to be displayed for each predetermined area on the screen. And a control program for causing the synthesized moving image generated by the synthesizing unit to function as a transmitting unit that transmits to the user terminal.

以上説明したように、本発明によれば、アプリケーション管理装置が、複数のユーザ端末のそれぞれから送信される指示情報に基づいて所定の演算処理を行い、演算結果に基づく動画を生成する、各ユーザ端末のそれぞれに対応した複数のアプリケーション処理部と、複数のアプリケーション処理部によって、複数のユーザ端末のそれぞれに応じて生成された動画を、画面における所定の領域ごとに表示されるように合成した合成動画を生成する合成部と、合成部によって生成された合成動画を、ユーザ端末に送信する送信部と、を備えるようにしたので、ネットワークを介してアプリケーションを利用させることができる。   As described above, according to the present invention, each user who performs predetermined calculation processing based on instruction information transmitted from each of a plurality of user terminals and generates a moving image based on the calculation result, according to the present invention. Combining a plurality of application processing units corresponding to each of the terminals and a plurality of application processing units to synthesize a video generated according to each of the plurality of user terminals so as to be displayed for each predetermined area on the screen Since a synthesis unit that generates a video and a transmission unit that transmits the synthesized video generated by the synthesis unit to the user terminal are provided, an application can be used via the network.

本発明の第1の実施形態によるアプリケーションシステムの構成例を示すブロック図である。It is a block diagram which shows the structural example of the application system by the 1st Embodiment of this invention. 本発明の第1の実施形態による合成動画の画面例を示す図である。It is a figure which shows the example of a screen of the synthesized moving image by the 1st Embodiment of this invention. 本発明の第1の実施形態によるアプリケーションシステムの動作例を示す図である。It is a figure which shows the operation example of the application system by the 1st Embodiment of this invention. 本発明の第2の実施形態によるアプリケーションシステムの構成例を示すブロック図である。It is a block diagram which shows the structural example of the application system by the 2nd Embodiment of this invention. 本発明の第2の実施形態によるユーザ情報のデータ例を示す図である。It is a figure which shows the example of data of the user information by the 2nd Embodiment of this invention. 本発明の第2の実施形態によるマッチング情報のデータ例を示す図である。It is a figure which shows the example of data of the matching information by the 2nd Embodiment of this invention. 本発明の第2の実施形態による合成定義情報のデータ例を示す図である。It is a figure which shows the example of a data of the synthetic | combination definition information by the 2nd Embodiment of this invention. 本発明の第2の実施形態による合成動画の第1の画面例を示す図である。It is a figure which shows the 1st example of a screen of the synthetic | combination moving image by the 2nd Embodiment of this invention. 本発明の第2の実施形態による合成動画の第2の画面例を示す図である。It is a figure which shows the 2nd example of a synthetic | combination moving image screen by the 2nd Embodiment of this invention. 本発明の第2の実施形態による合成動画の第3の画面例を示す図である。It is a figure which shows the 3rd example of a synthetic | combination moving image screen by the 2nd Embodiment of this invention. 本発明の第2の実施形態によるアプリケーションシステムの動作例を示す図である。It is a figure which shows the operation example of the application system by the 2nd Embodiment of this invention. 本発明の第3の実施形態によるアプリケーションシステムの構成例を示すブロック図である。It is a block diagram which shows the structural example of the application system by the 3rd Embodiment of this invention.

以下、本発明の一実施形態について、図面を参照して説明する。
<第1の実施形態>
まず、本発明の第1の実施形態について説明する。図1は、本実施形態によるアプリケーションシステム1の構成を示すブロック図である。アプリケーションシステム1は、複数のユーザ端末10(ユーザ端末10−1、ユーザ端末10−2、ユーザ端末10−3、・・・)と、複数のユーザ端末10にネットワーク5を介して接続されたアプリケーションサーバ30(「アプリケーション管理装置」の一例)とを備えている。ここで、複数のユーザ端末10は同様の構成であるため、特に区別しない場合には「−1」、「−2」等の記載を省略してユーザ端末10として説明する。本実施形態では、4台のユーザ端末10を示して説明するが、任意の台数のユーザ端末10がネットワーク5に接続されていてよい。
ネットワーク5は、インターネット、WAN(Wide Area Network)、LAN(Local Area Network)、専用回線、またはこれらの組み合わせによって構成される情報通信ネットワークである。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
<First Embodiment>
First, a first embodiment of the present invention will be described. FIG. 1 is a block diagram showing a configuration of an application system 1 according to the present embodiment. The application system 1 includes a plurality of user terminals 10 (user terminal 10-1, user terminal 10-2, user terminal 10-3,...) And applications connected to the plurality of user terminals 10 via the network 5. And a server 30 (an example of an “application management device”). Here, since the plurality of user terminals 10 have the same configuration, the description of “−1”, “−2”, etc. is omitted and described as the user terminal 10 unless otherwise distinguished. In this embodiment, four user terminals 10 are shown and described, but an arbitrary number of user terminals 10 may be connected to the network 5.
The network 5 is an information communication network configured by the Internet, a WAN (Wide Area Network), a LAN (Local Area Network), a dedicated line, or a combination thereof.

ユーザ端末10は、ユーザが利用するコンピュータ装置であり、例えばPC(Personal Computer)、タブレットPC、スマートフォン、ゲーム機器等が適用できる。ユーザ端末10は、キーボード、マウス、タッチパネル等の入力デバイスを備えており、ユーザからの指示情報の入力を受け付ける。また、ユーザ端末10は、ネットワーク5を介してアプリケーションサーバ30と通信する通信部や、各種情報を記憶する記憶部、情報を表示するディスプレイである表示部等を備えている。本実施形態では、ユーザ端末10はPCであるものとして説明する。   The user terminal 10 is a computer device used by a user. For example, a PC (Personal Computer), a tablet PC, a smartphone, a game machine, or the like can be applied. The user terminal 10 includes input devices such as a keyboard, a mouse, and a touch panel, and accepts input of instruction information from the user. In addition, the user terminal 10 includes a communication unit that communicates with the application server 30 via the network 5, a storage unit that stores various types of information, a display unit that is a display that displays information, and the like. In the present embodiment, the user terminal 10 will be described as a PC.

ここで、ユーザ端末10は、ネットワーク5を介して接続されたアプリケーションサーバ30によって提供されるアプリケーションサービスを利用する。本実施形態では、ユーザ端末10は、ユーザから入力される指示情報をアプリケーションサーバ30に送信し、送信した指示情報に応じてアプリケーションサーバ30によってアプリケーションの演算処理が行われた結果を反映した画面を、ストリーミング形式による動画としてアプリケーションサーバ30から受信し、ディスプレイに表示する。ユーザ端末10がアプリケーションサーバ30に送信する指示情報とは、例えばアプリケーションの開始要求や、アプリケーションの各種機能に応じた操作を示す情報である。これにより、ユーザ端末10にアプリケーションプログラムをインストールすることなく、ユーザはアプリケーションを利用することができる。本実施形態では、ユーザU1がユーザ端末10−1を利用し、ユーザU2がユーザ端末10−2を利用し、ユーザU3がユーザ端末10−3を利用し、ユーザU4がユーザ端末10−4を利用するものとして説明する。   Here, the user terminal 10 uses an application service provided by the application server 30 connected via the network 5. In the present embodiment, the user terminal 10 transmits instruction information input from the user to the application server 30, and displays a screen that reflects a result of application calculation processing performed by the application server 30 in accordance with the transmitted instruction information. Then, it is received from the application server 30 as a moving image in a streaming format and displayed on the display. The instruction information transmitted from the user terminal 10 to the application server 30 is information indicating, for example, an application start request and operations corresponding to various functions of the application. Accordingly, the user can use the application without installing the application program in the user terminal 10. In this embodiment, the user U1 uses the user terminal 10-1, the user U2 uses the user terminal 10-2, the user U3 uses the user terminal 10-3, and the user U4 uses the user terminal 10-4. It will be described as being used.

アプリケーションサーバ30は、ネットワーク5を介してユーザ端末10にアプリケーションを利用させるアプリケーションサービスを提供するコンピュータ装置であり、記憶部31と、受信部33と、アプリケーション制御部34と、合成部36と、送信部37とを備えている。   The application server 30 is a computer device that provides an application service that allows the user terminal 10 to use an application via the network 5, and includes a storage unit 31, a reception unit 33, an application control unit 34, a synthesis unit 36, and a transmission Part 37.

記憶部31は、アプリケーションシステム30が動作するために参照する各種情報を記憶する。例えば、記憶部31には、アプリケーションを実行するためのアプリケーションプログラムが予め記憶されている。
受信部33は、ユーザ端末10から送信される指示情報を受信する。
The storage unit 31 stores various types of information that are referred to in order for the application system 30 to operate. For example, the storage unit 31 stores in advance an application program for executing an application.
The receiving unit 33 receives instruction information transmitted from the user terminal 10.

アプリケーション制御部34は、複数のユーザ端末10のそれぞれから送信される指示情報に基づいて所定の演算処理を行い、演算結果に基づく動画を生成する、各ユーザ端末10のそれぞれに対応した複数のアプリケーション処理部35(アプリケーション処理部35−1、アプリケーション処理部35−2、アプリケーション処理部35−3、・・・)を備えている。ここで、複数のアプリケーション処理部35は同様の構成であるため、特に区別しない場合には「−1」、「−2」等の記載を省略してアプリケーション処理部35として説明する。アプリケーション制御部34は、ユーザ端末10から、アプリケーションの利用要求である指示情報を、受信部33を介して受信すると、予め記憶部31に記憶されているアプリケーションプログラムを読み出して、アプリケーションの実行インスタンスであるアプリケーション処理部35を自身の記憶領域に生成する。アプリケーション制御部34は、アプリケーションを利用するひとつのユーザ端末10に対してひとつのアプリケーション処理部35を生成するため、ユーザ端末10と同数のアプリケーション処理部35を生成する。   The application control unit 34 performs a predetermined calculation process based on instruction information transmitted from each of the plurality of user terminals 10 and generates a moving image based on the calculation result, and a plurality of applications corresponding to each user terminal 10 A processing unit 35 (an application processing unit 35-1, an application processing unit 35-2, an application processing unit 35-3,...) Is provided. Here, since the plurality of application processing units 35 have the same configuration, the description of “−1”, “−2”, etc. is omitted and described as the application processing unit 35 unless otherwise distinguished. When the application control unit 34 receives instruction information, which is an application use request, from the user terminal 10 via the reception unit 33, the application control unit 34 reads an application program stored in advance in the storage unit 31, and executes an application execution instance. A certain application processing unit 35 is generated in its own storage area. The application control unit 34 generates the same number of application processing units 35 as the user terminal 10 in order to generate one application processing unit 35 for one user terminal 10 that uses the application.

アプリケーション処理部35は、自身に対応するユーザ端末10から送信される指示情報に基づいて所定の演算処理を行い、演算結果に基づく動画を生成する。アプリケーション処理部35が行う演算処理は、例えば、ゲームやデスクトップサービス等のアプリケーションを提供するための処理である。ゲームとは、例えばレースゲーム等のスポーツゲーム、格闘ゲーム等のアクションゲーム、FPS(First Person shooter)等のシューティングゲーム、ロールプレイングゲーム、パズルゲーム、シミュレーションゲームなどが適用できる。あるいは、アプリケーション処理部35は、ワープロソフト、表計算ソフト、プレゼンテーションソフト等のオフィスソフト等のアプリケーションを実行するものであってもよい。ここで、アプリケーション処理部35は、アプリケーションサーバ30が備えるGPU(Graphics Processing Unit)等を用いてアプリケーション画面のレンダリングを行い、時系列とともに変化するコマ画面の連続である動画を合成部36に出力する。   The application processing unit 35 performs a predetermined calculation process based on the instruction information transmitted from the user terminal 10 corresponding to itself, and generates a moving image based on the calculation result. The arithmetic processing performed by the application processing unit 35 is, for example, processing for providing an application such as a game or desktop service. As the game, for example, a sports game such as a racing game, an action game such as a fighting game, a shooting game such as FPS (First Person shooter), a role playing game, a puzzle game, a simulation game, and the like can be applied. Alternatively, the application processing unit 35 may execute an application such as office software such as word processing software, spreadsheet software, or presentation software. Here, the application processing unit 35 renders the application screen using a GPU (Graphics Processing Unit) or the like provided in the application server 30, and outputs a moving image that is a continuous frame screen that changes with time series to the synthesis unit 36. .

合成部36は、複数のアプリケーション処理部35によって、複数のユーザ端末10のそれぞれに応じて生成された動画を、画面における所定の領域ごとに表示されるように合成した合成動画を生成する。具体的には、合成部36は、アプリケーション処理部35によって生成された動画をバッファリングし、リアルタイム動画配信に適したビットレートにエンコードして動画を生成する。そして、複数のユーザ端末10に対応する動画を合成して合成動画を生成する。図2は、合成部36が生成する合成動画の画面例を示す図である。ここでは、符号d1に示す画面において、符号d1−1の領域にはユーザU1に対応するユーザ端末10−1からの指示情報に応じた画面を縮小して表示させており、符号d1−2の領域にはユーザU2に対応するユーザ端末10−2からの指示情報に応じた画面を縮小して表示させており、符号d1−3の領域にはユーザU3に対応するユーザ端末10−3からの指示情報に応じた画面を縮小して表示させており、符号d1−4の領域にはユーザU4に対応するユーザ端末10−4からの指示情報に応じた画面を縮小して表示させている。   The combining unit 36 generates a combined moving image by combining the moving images generated according to each of the plurality of user terminals 10 by the plurality of application processing units 35 so as to be displayed for each predetermined area on the screen. Specifically, the synthesizing unit 36 buffers the moving image generated by the application processing unit 35, encodes the moving image to a bit rate suitable for real-time moving image distribution, and generates a moving image. Then, a moving image corresponding to the plurality of user terminals 10 is combined to generate a combined moving image. FIG. 2 is a diagram illustrating a screen example of a synthesized moving image generated by the synthesis unit 36. Here, in the screen indicated by reference sign d1, the screen corresponding to the instruction information from the user terminal 10-1 corresponding to the user U1 is reduced and displayed in the area indicated by reference sign d1-1. In the area, the screen corresponding to the instruction information from the user terminal 10-2 corresponding to the user U2 is reduced and displayed, and in the area d1-3, the area from the user terminal 10-3 corresponding to the user U3 is displayed. The screen corresponding to the instruction information is reduced and displayed, and the screen corresponding to the instruction information from the user terminal 10-4 corresponding to the user U4 is reduced and displayed in the area denoted by reference numeral d1-4.

このように、ひとつの画面に複数のユーザ端末10に対応する画面を含ませた合成動画を生成してユーザ端末10に送信することにより、ユーザに他のユーザのアプリケーション画面をみせることができる。これにより、例えば、ユーザはレースゲームにおける競争相手である他のユーザの状況を把握したり、複数のユーザがチームを組んでチーム同士が対戦するようなFPSにおいて、自身のチームであるユーザの状況を把握したりすることができる。あるいは、例えば、複数のユーザが楽器のセッションを行うようなアプリケーションにおいて、他のユーザの演奏画面を合成した合成動画を生成するようなことができる。ここでは、例えば、個々のユーザ端末10が、楽器を演奏するユーザをウェブカメラ等により撮影した動画をアプリケーションサーバ30に送信する。そして、アプリケーションサーバ30は、そのユーザ以外のユーザのユーザ端末10から送信された動画を合成した合成動画を生成してユーザ端末10に送信するようなことができる。   In this manner, by generating a composite video in which screens corresponding to a plurality of user terminals 10 are included in one screen and transmitting the generated composite video to the user terminal 10, it is possible to show the application screen of another user to the user. Thereby, for example, the user grasps the situation of other users who are competitors in the race game, or the situation of the user who is his / her team in FPS where a plurality of users form a team and the teams battle each other. Can be grasped. Alternatively, for example, in an application in which a plurality of users conduct a musical instrument session, it is possible to generate a synthesized moving image in which performance screens of other users are synthesized. Here, for example, each user terminal 10 transmits to the application server 30 a moving image obtained by photographing a user who plays a musical instrument with a web camera or the like. And the application server 30 can produce | generate the synthetic | combination moving image which synthesize | combined the moving image transmitted from the user terminals 10 of users other than the user, and can transmit to the user terminal 10. FIG.

また、このようにすれば、アプリケーションサーバ30は、複数のユーザ端末10に対応する画面の全てを生成しているため、合成動画を効率良く生成することができる。例えば、ユーザ端末においてアプリケーションの演算処理を行う場合、第1のユーザ端末と第2のユーザ端末とがネットワーク5を介してP2P(Peer to Peer)通信を行うことにより合成動画を生成しようとすれば、第1のユーザ端末において生成した画面を第2のユーザ端末に送信し、第2のユーザ端末は第1のユーザ端末から送信された画面を受信して、自身の画面に合成してから表示する必要がある。これでは、ユーザ端末間において個々の画面を送受信する処理負荷やネットワーク負荷がかかるとともに、第1のユーザ端末と第2のユーザ端末との双方において画面を合成する処理負荷がかかる。これに対し、本実施形態によれば、ユーザ端末10−1に対応する画面とユーザ端末10−2に対応する画面とはいずれもアプリケーションサーバ30によって生成されるため、ユーザ端末10同士がネットワーク5を介して個別に画面の送受信をする必要がない。このため、ユーザ端末10同士がネットワーク5を介してP2P通信を行う場合に比べて、各ユーザ端末10の帯域幅等の回線品質や、ユーザ端末10間のレイテンシやパケットロス率等の経路品質等の要素がアプリケーションの利用品質に影響することがなく、快適にアプリケーションを利用させることができる。またアプリケーションサーバ30が一括して画面合成処理を行うため、ユーザ端末に画面合成処理のための負荷がかかることもない。   Moreover, if it does in this way, since the application server 30 has produced | generated all the screens corresponding to the several user terminal 10, it can produce | generate a synthetic | combination moving image efficiently. For example, when application calculation processing is performed in a user terminal, if a first user terminal and a second user terminal perform P2P (Peer to Peer) communication via the network 5, an attempt is made to generate a composite video. The screen generated in the first user terminal is transmitted to the second user terminal, and the second user terminal receives the screen transmitted from the first user terminal and combines it with its own screen for display. There is a need to. This places a processing load for transmitting / receiving individual screens between the user terminals and a network load, as well as a processing load for synthesizing the screens in both the first user terminal and the second user terminal. On the other hand, according to this embodiment, since the screen corresponding to the user terminal 10-1 and the screen corresponding to the user terminal 10-2 are both generated by the application server 30, the user terminals 10 are connected to each other in the network 5. There is no need to send and receive screens individually via Therefore, compared to the case where the user terminals 10 perform P2P communication via the network 5, the line quality such as the bandwidth of each user terminal 10, the path quality such as the latency between the user terminals 10 and the packet loss rate, etc. These elements do not affect the use quality of the application, and the application can be used comfortably. In addition, since the application server 30 performs the screen composition process in a lump, there is no load on the user terminal for the screen composition process.

送信部37は、合成部36によって生成された合成動画を、ユーザ端末10に送信する。ここで、送信部37は、ストリーミング形式により合成動画を送信する。ストリーミングとは、時系列に応じた動画のデータを受信しながら順次再生させる転送、再生方式である。これにより、指示情報に応じて変化する画面をリアルタイムにユーザ端末10に表示させることができる。   The transmission unit 37 transmits the synthesized moving image generated by the synthesis unit 36 to the user terminal 10. Here, the transmission unit 37 transmits the composite moving image in a streaming format. Streaming is a transfer and playback method in which moving image data corresponding to time series is sequentially played back while being received. Thereby, the screen which changes according to instruction information can be displayed on the user terminal 10 in real time.

次に、図面を参照して、本実施形態によるアプリケーションシステム1の動作例を説明する。図3は、本実施形態によるアプリケーションシステム1の動作例を示す図である。
ユーザU1によって、ユーザ端末10−1にアプリケーションの利用要求を示す指示情報が入力されると、ユーザ端末10−1は、アプリケーションサーバ30に接続し、利用要求を送信する(ステップS1)。アプリケーションサーバ30の受信部33が、ユーザ端末10−1から送信された利用要求を受信すると、アプリケーション制御部34は、ユーザ端末10−1に対応するアプリケーション(AP)処理部35−1を生成する。アプリケーション処理部35−1は、ユーザ端末10−1から送信される指示情報に応じた所定の演算処理を行い、演算結果に基づく動画を生成し、合成部36に出力する処理を開始する(ステップS2)。アプリケーション処理部35−1が、生成した動画を出力すると(ステップS3)、合成部36は、アプリケーション処理部35−1から出力される動画をバッファリングし、動画配信に適したビットレートにエンコードしてストリーミング形式の動画を生成する処理を開始する(ステップS4)。この時点では、合成部36は、ユーザ端末10−1に対応する動画のみを送信部37に出力する(ステップS5)。送信部37は、合成部36によって生成された動画をストリーミング形式により送信する処理を開始する(ステップS6)。送信部37は、ユーザ端末10−1に動画を送信する(ステップS7)。
Next, an operation example of the application system 1 according to the present embodiment will be described with reference to the drawings. FIG. 3 is a diagram illustrating an operation example of the application system 1 according to the present embodiment.
When instruction information indicating an application use request is input to the user terminal 10-1 by the user U1, the user terminal 10-1 connects to the application server 30 and transmits a use request (step S1). When the reception unit 33 of the application server 30 receives the usage request transmitted from the user terminal 10-1, the application control unit 34 generates an application (AP) processing unit 35-1 corresponding to the user terminal 10-1. . The application processing unit 35-1 performs predetermined calculation processing according to the instruction information transmitted from the user terminal 10-1, generates a moving image based on the calculation result, and starts processing to output to the synthesis unit 36 (step). S2). When the application processing unit 35-1 outputs the generated moving image (step S3), the synthesizing unit 36 buffers the moving image output from the application processing unit 35-1 and encodes it to a bit rate suitable for moving image distribution. Then, a process for generating a streaming-format moving image is started (step S4). At this time, the synthesis unit 36 outputs only the moving image corresponding to the user terminal 10-1 to the transmission unit 37 (step S5). The transmission unit 37 starts processing for transmitting the moving image generated by the synthesis unit 36 in a streaming format (step S6). The transmission part 37 transmits a moving image to the user terminal 10-1 (step S7).

同様に、ユーザU2によって、ユーザ端末10−2にアプリケーションの利用要求を示す指示情報が入力されると、ユーザ端末10−2は、アプリケーションサーバ30に接続し、利用要求を送信する(ステップS8)。アプリケーションサーバ30の受信部33が、ユーザ端末10−2から送信された利用要求を受信すると、アプリケーション制御部34は、ユーザ端末10−2に対応するアプリケーション(AP)処理部35−2を生成する。アプリケーション処理部35−2は、ユーザ端末10−2から送信される指示情報に応じた所定の演算処理を行い、演算結果に基づく動画を生成し、合成部36に出力する処理を開始する(ステップS9)。アプリケーション処理部35−2が、生成した動画を出力すると(ステップS10)、合成部36は、アプリケーション処理部35−2から出力される動画をバッファリングし、動画配信に適したビットレートにエンコードしてストリーミング形式の動画を生成する。そして、アプリケーション処理部35−1から出力される動画と、アプリケーション処理部35−2から出力される動画とを合成した合成動画を生成し、送信部37に出力する(ステップS11)。送信部37は、合成部36によって生成された合成動画を、ストリーミング形式によりユーザ端末10−1とユーザ端末10−2とに送信する(ステップS12)。   Similarly, when instruction information indicating an application use request is input to the user terminal 10-2 by the user U2, the user terminal 10-2 connects to the application server 30 and transmits a use request (step S8). . When the reception unit 33 of the application server 30 receives the usage request transmitted from the user terminal 10-2, the application control unit 34 generates an application (AP) processing unit 35-2 corresponding to the user terminal 10-2. . The application processing unit 35-2 performs predetermined calculation processing according to the instruction information transmitted from the user terminal 10-2, generates a moving image based on the calculation result, and starts processing to output to the synthesis unit 36 (step) S9). When the application processing unit 35-2 outputs the generated moving image (step S10), the synthesizing unit 36 buffers the moving image output from the application processing unit 35-2 and encodes it to a bit rate suitable for moving image distribution. To create a streaming video. And the synthetic | combination moving image which synthesize | combined the moving image output from the application process part 35-1 and the moving image output from the application process part 35-2 is produced | generated, and it outputs to the transmission part 37 (step S11). The transmitting unit 37 transmits the synthesized moving image generated by the synthesizing unit 36 to the user terminal 10-1 and the user terminal 10-2 in a streaming format (Step S12).

同様に、ユーザU3によって、ユーザ端末10−3にアプリケーションの利用要求を示す指示情報が入力されると、ユーザ端末10−3は、アプリケーションサーバ30に接続し、利用要求を送信する(ステップS13)。アプリケーションサーバ30の受信部33が、ユーザ端末10−3から送信された利用要求を受信すると、アプリケーション制御部34は、ユーザ端末10−3に対応するアプリケーション(AP)処理部35−3を生成する。アプリケーション処理部35−3は、ユーザ端末10−3から送信される指示情報に応じた所定の演算処理を行い、演算結果に基づく動画を生成し、合成部36に出力する処理を開始する(ステップS14)。アプリケーション処理部35−3が、生成した動画を出力すると(ステップS15)、合成部36は、アプリケーション処理部35−3から出力される動画をバッファリングし、動画配信に適したビットレートにエンコードしてストリーミング形式の動画を生成する。そして、アプリケーション処理部35−1から出力される動画と、アプリケーション処理部35−2から出力される動画と、アプリケーション処理部35−3から出力される動画とを合成した合成動画を生成し、送信部37に出力する(ステップS16)。送信部37は、合成部36によって生成された合成動画を、ストリーミング形式によりユーザ端末10−1とユーザ端末10−2とユーザ端末10−3とに送信する(ステップS17)。   Similarly, when instruction information indicating an application use request is input to the user terminal 10-3 by the user U3, the user terminal 10-3 connects to the application server 30 and transmits a use request (step S13). . When the reception unit 33 of the application server 30 receives the usage request transmitted from the user terminal 10-3, the application control unit 34 generates an application (AP) processing unit 35-3 corresponding to the user terminal 10-3. . The application processing unit 35-3 performs predetermined calculation processing according to the instruction information transmitted from the user terminal 10-3, generates a moving image based on the calculation result, and starts processing to output to the synthesis unit 36 (step) S14). When the application processing unit 35-3 outputs the generated moving image (step S15), the combining unit 36 buffers the moving image output from the application processing unit 35-3 and encodes it to a bit rate suitable for moving image distribution. To create a streaming video. And the synthetic | combination moving image which synthesize | combined the moving image output from the application process part 35-1, the moving image output from the application process part 35-2, and the moving image output from the application process part 35-3 is produced | generated, and transmitted. It outputs to the part 37 (step S16). The transmission unit 37 transmits the synthesized video generated by the synthesis unit 36 to the user terminal 10-1, the user terminal 10-2, and the user terminal 10-3 in a streaming format (step S17).

同様に、ユーザU4によって、ユーザ端末10−4にアプリケーションの利用要求を示す指示情報が入力されると、ユーザ端末10−4は、アプリケーションサーバ30に接続し、利用要求を送信する(ステップS18)。アプリケーションサーバ30の受信部33が、ユーザ端末10−4から送信された利用要求を受信すると、アプリケーション制御部34は、ユーザ端末10−4に対応するアプリケーション(AP)処理部35−4を生成する。アプリケーション処理部35−4は、ユーザ端末10−4から送信される指示情報に応じた所定の演算処理を行い、演算結果に基づく動画を生成し、合成部36に出力する処理を開始する(ステップS19)。アプリケーション処理部35−4が、生成した動画を出力すると(ステップS20)、合成部36は、アプリケーション処理部35−4から出力される動画をバッファリングし、動画配信に適したビットレートにエンコードしてストリーミング形式の動画を生成する。そして、アプリケーション処理部35−1から出力される動画と、アプリケーション処理部35−2から出力される動画と、アプリケーション処理部35−3から出力される動画と、アプリケーション処理部35−4から出力される動画とを合成した合成動画を生成し、送信部37に出力する(ステップS21)。送信部37は、合成部36によって生成された合成動画を、ストリーミング形式によりユーザ端末10−1とユーザ端末10−2とユーザ端末10−3とにユーザ端末10−4とに送信する(ステップS22)。   Similarly, when instruction information indicating an application use request is input to the user terminal 10-4 by the user U4, the user terminal 10-4 connects to the application server 30 and transmits a use request (step S18). . When the reception unit 33 of the application server 30 receives the usage request transmitted from the user terminal 10-4, the application control unit 34 generates an application (AP) processing unit 35-4 corresponding to the user terminal 10-4. . The application processing unit 35-4 performs predetermined calculation processing according to the instruction information transmitted from the user terminal 10-4, generates a moving image based on the calculation result, and starts processing to output to the synthesis unit 36 (step). S19). When the application processing unit 35-4 outputs the generated moving image (step S20), the combining unit 36 buffers the moving image output from the application processing unit 35-4 and encodes it to a bit rate suitable for moving image distribution. To create a streaming video. The moving image output from the application processing unit 35-1, the moving image output from the application processing unit 35-2, the moving image output from the application processing unit 35-3, and the output from the application processing unit 35-4. A synthesized moving image is generated by combining the moving image and output to the transmission unit 37 (step S21). The transmitting unit 37 transmits the synthesized moving image generated by the synthesizing unit 36 to the user terminal 10-4 to the user terminal 10-1, the user terminal 10-2, and the user terminal 10-3 in a streaming format (Step S22). ).

以上説明したように、本実施形態によれば、複数のユーザ端末10のそれぞれには、自身に入力された指示情報に応じた画面と、他のユーザ端末10に入力された指示情報に応じた画面とが合成された合成動画が出力されるため、他のユーザのアプリケーションの状況を把握することができる。また、各ユーザ端末10に応じた画面を同一のアプリケーションサーバ30において生成しているため、他の装置と通信等を行うことなく各ユーザ端末10に応じた画面を合成した合成動画を生成することができ、処理負荷やネットワーク負荷を過剰に増加させることなく、合成動画を生成して送信することができる。   As described above, according to the present embodiment, each of the plurality of user terminals 10 corresponds to the screen corresponding to the instruction information input to itself and the instruction information input to the other user terminals 10. Since the synthesized moving image synthesized with the screen is output, it is possible to grasp the status of other users' applications. In addition, since the screen corresponding to each user terminal 10 is generated in the same application server 30, a synthesized moving image is generated by combining the screens corresponding to each user terminal 10 without communicating with other devices. It is possible to generate and transmit a composite video without excessively increasing processing load and network load.

<第2の実施形態>
次に、本発明の第2の実施形態について説明する。図4は、本実施形態によるアプリケーションシステム2の構成を示すブロック図である。本実施形態のアプリケーションシステム2は、第1の実施形態のアプリケーションシステム1と同様の構成であるので、アプリケーションシステム1と同様の構成については説明を省略し、特徴的な構成を説明する。本実施形態においてアプリケーションサーバ30が提供するアプリケーションは、複数のユーザがチームを組んでチーム同士が対戦するマルチユーザ対応のFPSのゲームアプリケーションであり、アプリケーションサーバ30のアプリケーション処理部35は、ゲーム処理である演算処理の演算結果に基づいて動画を生成する。
<Second Embodiment>
Next, a second embodiment of the present invention will be described. FIG. 4 is a block diagram showing the configuration of the application system 2 according to the present embodiment. Since the application system 2 of the present embodiment has the same configuration as that of the application system 1 of the first embodiment, the description of the same configuration as the application system 1 is omitted, and a characteristic configuration will be described. In this embodiment, the application provided by the application server 30 is a multi-user FPS game application in which a plurality of users form a team and the teams battle each other. The application processing unit 35 of the application server 30 is a game process. A moving image is generated based on a calculation result of a certain calculation process.

本実施形態のアプリケーションシステム2は、アプリケーションサーバ30に接続されたマッチングサーバ20を備えている。マッチングサーバ20は、ユーザ情報記憶部21と、マッチング情報記憶部22と、マッチング処理部23とを備えており、チームや対戦相手としてゲームを進行する複数のユーザに対応するアプリケーション処理部35の対応付けを行う。なお、本実施形態では、アプリケーションサーバ30とマッチングサーバ20とがアプリケーション管理装置の一例である。   The application system 2 according to this embodiment includes a matching server 20 connected to the application server 30. The matching server 20 includes a user information storage unit 21, a matching information storage unit 22, and a matching processing unit 23. The application processing unit 35 supports a plurality of users who play a game as a team or an opponent. To do. In the present embodiment, the application server 30 and the matching server 20 are an example of an application management apparatus.

ユーザ情報記憶部21は、ユーザの属性を示すユーザ情報を記憶する。図5は、ユーザ情報記憶部21に記憶されるユーザ情報のデータ例を示す図である。ユーザ情報には、ユーザID(Identifier)と、対戦勝率と、ランキング順位と、登録日等の情報が含まれる。ユーザIDは、ユーザを識別する情報である。対戦勝率は、ゲームにおいて相手チームに勝利した勝率を示す情報である。ランキング順位は、ゲームにおける点数や勝率等の基づく順位である。登録日は、対応するユーザがゲームを利用するためにアカウント等の登録を行った日付を示す情報である。なお、ユーザ情報には少なくともユーザIDが含まれていればよいものである。   The user information storage unit 21 stores user information indicating user attributes. FIG. 5 is a diagram illustrating a data example of user information stored in the user information storage unit 21. The user information includes information such as a user ID (Identifier), a win rate, a ranking order, and a registration date. The user ID is information for identifying the user. The battle win rate is information indicating the win rate of winning the opponent team in the game. The ranking order is a rank based on the score, winning percentage, etc. in the game. The registration date is information indicating the date when the corresponding user registered an account or the like to use the game. The user information only needs to include at least the user ID.

マッチング情報記憶部22は、チームや対戦相手としてゲームを進行する複数のユーザの対応付けを示すマッチング情報を記憶する。図6は、マッチング情報記憶部22に記憶されるマッチング情報のデータ例を示す図である。ここでは、マッチング情報には、ユーザIDと、マッチングユーザID(自チーム)と、マッチングユーザID(相手チーム)との情報が対応付けられる。ユーザIDは、アプリケーションを利用するユーザを識別する情報である。マッチングユーザID(自チーム)は、対応するユーザIDと同じチームに対応付けられた他のユーザのユーザIDである。マッチングユーザID(相手チーム)は、対応するユーザIDのチームに対する対戦相手のチームに対応付けられた他のユーザのユーザIDである。ここでは、ユーザIDがU1であるユーザと、ユーザIDがU2であるユーザと、ユーザIDがU3であるユーザと、ユーザIDがU4であるユーザとが同じチームであり、その相手チームが、ユーザIDがU5であるユーザと、ユーザIDがU6であるユーザと、ユーザIDがU7であるユーザと、ユーザIDがU8であるユーザとが含まれるチームであることが示されている。なお、アプリケーションが対戦型ゲームでないような場合、「マッチングユーザID(相手チーム)」は不要である。   The matching information storage unit 22 stores matching information indicating the association of a plurality of users who play a game as a team or an opponent. FIG. 6 is a diagram illustrating a data example of matching information stored in the matching information storage unit 22. Here, the matching information is associated with information of a user ID, a matching user ID (own team), and a matching user ID (partner team). The user ID is information for identifying a user who uses the application. The matching user ID (own team) is the user ID of another user associated with the same team as the corresponding user ID. A matching user ID (an opponent team) is a user ID of another user associated with an opponent team for the team of the corresponding user ID. Here, the user whose user ID is U1, the user whose user ID is U2, the user whose user ID is U3, and the user whose user ID is U4 are the same team. It is shown that the team includes a user whose ID is U5, a user whose user ID is U6, a user whose user ID is U7, and a user whose user ID is U8. If the application is not a competitive game, the “matching user ID (partner team)” is not required.

マッチング処理部23は、アプリケーション処理部35からのマッチング要求に基づいて、マッチング情報を生成してマッチング情報記憶部22に記憶させる。例えば、マッチング処理部23は、ユーザ情報記憶部21に記憶されているユーザ情報を読み出して、対戦勝率やランキング順位が同程度のユーザを同じチームや相手チームとして対応付けたマッチング情報を生成する。あるいは、例えば、マッチング処理部23は、開始待ち状態のユーザの一覧や対戦相手待ちの状態のチームの一覧の情報をユーザ端末10に送信して提示し、自チームや相手チームの選択を受け付け、受け付けた選択に基づいてマッチング情報を生成することもできる。   The matching processing unit 23 generates matching information based on a matching request from the application processing unit 35 and stores the matching information in the matching information storage unit 22. For example, the matching processing unit 23 reads the user information stored in the user information storage unit 21 and generates matching information in which users having the same battle win rate and ranking ranking are associated as the same team and the opponent team. Alternatively, for example, the matching processing unit 23 transmits and presents information on a list of users waiting for start and a list of teams waiting for an opponent to the user terminal 10 and accepts selection of the own team or the opponent team, Matching information can also be generated based on the accepted selection.

また、マッチング処理部23は、生成したマッチング情報をマッチング情報記憶部22に記憶させるとともに、生成したマッチング情報に含まれるユーザに対応するアプリケーション処理部35が起動されているアプリケーションサーバ30に、生成したマッチング情報を送信する。これにより、アプリケーションサーバ30がマッチング情報を受信すると、マッチング情報により対応付けられた複数のユーザのそれぞれに対応するアプリケーション処理部35同士が、対戦処理等のゲーム制御を行うことができる。また、アプリケーションサーバ30がマッチング情報を受信すると、アプリケーションサーバ30の合成部36は、後述のようにマッチング情報に対応付けられたユーザIDに基づいて動画を合成することができる。   In addition, the matching processing unit 23 stores the generated matching information in the matching information storage unit 22, and the generated matching information is generated in the application server 30 in which the application processing unit 35 corresponding to the user included in the generated matching information is activated. Send matching information. Thereby, when the application server 30 receives the matching information, the application processing units 35 corresponding to each of a plurality of users associated with the matching information can perform game control such as a battle process. Further, when the application server 30 receives the matching information, the combining unit 36 of the application server 30 can combine the moving images based on the user ID associated with the matching information as described later.

本実施形態におけるアプリケーションサーバ30の記憶部31は、合成定義情報記憶部32を備えている。
合成定義情報記憶部32は、ユーザごとに、ユーザ端末10に対して送信する合成動画における画面内に、他のユーザ端末10からの指示情報に基づいて生成された動画を合成する領域の属性を定義した合成定義情報を記憶する。図7は、合成定義情報記憶部32に記憶される合成定義情報のデータ例を示す図である。合成定義情報には、ユーザIDと、合成対象ユーザIDと、合成位置と、縮尺と、透明度等の情報が含まれる。ユーザIDは、ユーザを識別する情報である。合成対象ユーザIDは、画面を合成する他のユーザのユーザIDを示す情報であり、例えば同じチームのユーザのユーザIDである。合成位置は、他のユーザの画面を合成する位置を示す情報であり、合成対象ユーザIDごとに、そのユーザの画面を合成する位置を示す画面上の座標位置が対応付けられる。縮尺は、合成する他のユーザの画面の縮尺を示す。透明度は、合成する他のユーザの画面の透明度を示す。
The storage unit 31 of the application server 30 in the present embodiment includes a synthesis definition information storage unit 32.
The composition definition information storage unit 32 sets, for each user, an attribute of an area in which a moving image generated based on instruction information from another user terminal 10 is combined in a screen of the synthetic moving image transmitted to the user terminal 10. The defined composition definition information is stored. FIG. 7 is a diagram illustrating a data example of the synthesis definition information stored in the synthesis definition information storage unit 32. The combination definition information includes information such as a user ID, a combination target user ID, a combination position, a scale, and transparency. The user ID is information for identifying the user. The composition target user ID is information indicating the user ID of another user who composes the screen, for example, the user ID of a user on the same team. The composition position is information indicating a position where another user's screen is combined, and a coordinate position on the screen indicating a position where the user's screen is combined is associated with each combination target user ID. The scale indicates the scale of the screen of another user to be synthesized. The transparency indicates the transparency of the screen of another user to be synthesized.

このような合成定義情報は、例えば、アプリケーションの開始時等に合成部36によって生成され、合成定義情報記憶部32に記憶される。例えば、合成部36は、マッチングサーバ20のマッチング情報記憶部22に記憶されているマッチング情報を取得し、取得したマッチング情報において特定のユーザIDに対応付けられているマッチングユーザID(自チーム)が示すユーザIDを、合成対象ユーザIDとしてその特定のユーザIDに対応付けた合成定義情報を生成する。ここで、合成部36は、合成定義情報のうち、合成位置と、縮尺と、透明度との情報の初期値を自身の記憶領域に予め記憶しておき、初期値を対応付けた合成定義情報を生成することができる。あるいは、合成定義情報のうち、合成位置と、縮尺と、透明度との情報を指定する指示情報を、アプリケーションの開始時やアプリケーションの進行中にユーザ端末10から受信し、受信した指示情報に基づいて合成定義情報を生成して合成定義情報記憶部32に記憶させることもできる。このような合成定義情報に基づいて、合成部36によって合成動画が生成される。このような合成定義情報により、ユーザは他のユーザの画面が表示される位置や透明度等を指定することができ、他のユーザの画面や状況を把握しながらゲームをプレイすることができる。   Such composition definition information is generated by the composition unit 36 at the start of an application, for example, and stored in the composition definition information storage unit 32. For example, the synthesizing unit 36 acquires the matching information stored in the matching information storage unit 22 of the matching server 20, and the matching user ID (own team) associated with the specific user ID in the acquired matching information is The combination definition information in which the indicated user ID is associated with the specific user ID as the combination target user ID is generated. Here, the synthesis unit 36 stores in advance the initial values of the information of the synthesis position, the scale, and the transparency in the synthesis definition information in its own storage area, and the synthesis definition information in which the initial values are associated with each other. Can be generated. Alternatively, in the synthesis definition information, instruction information for designating information of a synthesis position, a scale, and transparency is received from the user terminal 10 at the start of the application or during the application, and based on the received instruction information. The synthesis definition information can be generated and stored in the synthesis definition information storage unit 32. Based on such synthesis definition information, the synthesis unit 36 generates a synthesized moving image. With such composition definition information, the user can specify the position where the other user's screen is displayed, the transparency, and the like, and can play the game while grasping the other user's screen and situation.

例えば、合成部36は、主ユーザに対応するユーザ端末10からの指示情報に基づいて生成された動画が表示される画面内の領域の大きさが、他のユーザ端末10からの指示情報に基づいて生成された動画が表示される画面内の領域の大きさに対して相対的に大きい合成動画を生成する。主ユーザとは、その合成動画を送信するユーザ端末10のユーザであり、合成部36は、ユーザごとに異なる合成動画を生成する。図8から図9は、ユーザU1を主ユーザとした合成動画の画面例を示す図である。   For example, the composition unit 36 determines that the size of the area in the screen on which the moving image generated based on the instruction information from the user terminal 10 corresponding to the main user is displayed is based on the instruction information from the other user terminals 10. A synthesized moving image that is relatively large with respect to the size of the area in the screen on which the generated moving image is displayed is generated. The main user is a user of the user terminal 10 that transmits the synthesized video, and the synthesis unit 36 generates a different synthesized video for each user. FIG. 8 to FIG. 9 are diagrams showing examples of a composite video screen with the user U1 as the main user.

図8は、本実施形態の合成部36により、合成定義情報に基づいて生成される合成動画の第1の画面例を示す図である。ここでは、符号d2−1に示す画面全体にユーザU1に対応するユーザ端末10−1からの指示情報に応じた画面を表示させており、符号d2−2の領域にはユーザU2に対応するユーザ端末10−2からの指示情報に応じた画面を縮小して表示させており、符号d2−3の領域にはユーザU3に対応するユーザ端末10−3からの指示情報に応じた画面を縮小して表示させており、符号d2−4の領域にはユーザU4に対応するユーザ端末10−4からの指示情報に応じた画面を縮小して表示させている。   FIG. 8 is a diagram illustrating a first screen example of a synthesized moving image generated based on the synthesis definition information by the synthesis unit 36 of the present embodiment. Here, the screen corresponding to the instruction information from the user terminal 10-1 corresponding to the user U1 is displayed on the entire screen indicated by the symbol d2-1, and the user corresponding to the user U2 is displayed in the region indicated by the symbol d2-2. The screen corresponding to the instruction information from the terminal 10-2 is reduced and displayed, and the screen corresponding to the instruction information from the user terminal 10-3 corresponding to the user U3 is reduced in the area denoted by reference numeral d2-3. In the area denoted by reference numeral d2-4, the screen corresponding to the instruction information from the user terminal 10-4 corresponding to the user U4 is reduced and displayed.

図9は、合成部36により、合成定義情報に基づいて生成される合成動画の第2の画面例を示す図である。ここでは、符号d3に示す画面において、符号d3−1の領域にはユーザU1に対応するユーザ端末10−1からの指示情報に応じた画面を縮小して表示させており、符号d3−2の領域にはユーザU2に対応するユーザ端末10−2からの指示情報に応じた画面を縮小して表示させており、符号d3−3の領域にはユーザU3に対応するユーザ端末10−3からの指示情報に応じた画面を縮小して表示させており、符号d3−4の領域にはユーザU4に対応するユーザ端末10−4からの指示情報に応じた画面を縮小して表示させている。   FIG. 9 is a diagram illustrating a second screen example of the synthesized moving image generated by the synthesis unit 36 based on the synthesis definition information. Here, in the screen indicated by reference sign d3, a screen corresponding to the instruction information from the user terminal 10-1 corresponding to the user U1 is reduced and displayed in the area indicated by reference sign d3-1. In the area, the screen corresponding to the instruction information from the user terminal 10-2 corresponding to the user U2 is reduced and displayed. In the area indicated by reference numeral d3-3, the area from the user terminal 10-3 corresponding to the user U3 is displayed. The screen corresponding to the instruction information is reduced and displayed, and the screen corresponding to the instruction information from the user terminal 10-4 corresponding to the user U4 is reduced and displayed in the area d3-4.

図10は、合成部36により、合成定義情報に基づいて生成される合成動画の第3の画面例を示す図である。ここでは、符号d4−1に示す画面全体にユーザU1に対応するユーザ端末10−1からの指示情報に応じた画面を表示させており、符号d4−2の領域にはユーザU2に対応するユーザ端末10−2からの指示情報に応じた画面を縮小して表示させており、符号d4−3の領域にはユーザU3に対応するユーザ端末10−3からの指示情報に応じた画面を縮小して表示させており、符号d4−4の領域にはユーザU4に対応するユーザ端末10−4からの指示情報に応じた画面を縮小して表示させている。
ここでは、第1の画面例、第2の画面例、第3の画面例を示したが、この他にも、任意に様々な合成定義情報を生成して、任意の画面が生成されるようにしてよい。
本実施形態において、送信部37は、ユーザごとの合成定義情報に基づいて合成部36によって生成された合成動画を、そのユーザのユーザ端末10に送信する。
FIG. 10 is a diagram illustrating a third screen example of the synthesized moving image generated by the synthesis unit 36 based on the synthesis definition information. Here, a screen corresponding to the instruction information from the user terminal 10-1 corresponding to the user U1 is displayed on the entire screen indicated by reference sign d4-1, and the user corresponding to the user U2 is displayed in the area indicated by reference sign d4-2. The screen corresponding to the instruction information from the terminal 10-2 is reduced and displayed, and the screen corresponding to the instruction information from the user terminal 10-3 corresponding to the user U3 is reduced in the area denoted by reference numeral d4-3. In the area d4-4, the screen corresponding to the instruction information from the user terminal 10-4 corresponding to the user U4 is reduced and displayed.
Here, the first screen example, the second screen example, and the third screen example are shown. However, in addition to this, various composite definition information can be arbitrarily generated to generate an arbitrary screen. You can do it.
In this embodiment, the transmission part 37 transmits the synthetic | combination moving image produced | generated by the synthetic | combination part 36 based on the synthetic | combination definition information for every user to the user terminal 10 of the user.

次に、図面を参照して、本実施形態によるアプリケーションシステム2の動作例を説明する。図11は、本実施形態によるアプリケーションシステム2の動作例を示す図である。
ステップS30、ステップS31は、第1の実施形態におけるステップS1、ステップS2と同様である。アプリケーション処理部35−1は、ユーザ端末10−1から送信される指示情報に基づいて、マッチングサーバ20にマッチング要求を送信する(ステップS32)。アプリケーション処理部35−1が、ユーザ端末10−1から送信される指示情報に応じた所定の演算処理を行い、演算結果に基づく動画を生成して出力すると(ステップS33)、合成部36は、アプリケーション処理部35−1から出力される動画をバッファリングし、動画配信に適したビットレートにエンコードしてストリーミング形式の動画を生成して出力する(ステップS34)。送信部37は、合成部36によって生成された動画をストリーミング形式により送信する処理を開始する(ステップS35)。送信部37は、ユーザ端末10−1に動画を送信する(ステップS36)。
Next, an operation example of the application system 2 according to the present embodiment will be described with reference to the drawings. FIG. 11 is a diagram illustrating an operation example of the application system 2 according to the present embodiment.
Step S30 and step S31 are the same as step S1 and step S2 in the first embodiment. The application processing unit 35-1 transmits a matching request to the matching server 20 based on the instruction information transmitted from the user terminal 10-1 (Step S32). When the application processing unit 35-1 performs predetermined calculation processing according to the instruction information transmitted from the user terminal 10-1, and generates and outputs a moving image based on the calculation result (step S33), the combining unit 36 The moving image output from the application processing unit 35-1 is buffered, encoded to a bit rate suitable for moving image distribution, and a streaming moving image is generated and output (step S34). The transmission unit 37 starts processing for transmitting the moving image generated by the synthesis unit 36 in a streaming format (step S35). The transmission part 37 transmits a moving image to the user terminal 10-1 (step S36).

ステップS30からステップS36までにおいてユーザ端末10−1について行った処理と同様の処理を、ステップS37からステップS42においてユーザ端末10−2について行い、ステップS43からステップS48においてユーザ端末10−3について行い、ステップS49からステップS54においてユーザ端末10−4について行う。マッチングサーバ20のマッチング処理部23は、ユーザU1、ユーザU2、ユーザU3、ユーザU4を対応付けたマッチング情報を生成し、マッチング情報記憶部22に記憶させる(ステップS55)。マッチングサーバ20のマッチング処理部23は、生成したマッチング情報を、アプリケーションサーバ30に送信する。アプリケーションサーバ30において、アプリケーション処理部35−1と、アプリケーション処理部35−2と、アプリケーション処理部35−3と、アプリケーション処理部35−4とが、マッチングサーバ20から送信されたマッチング情報を受信する。同様に、アプリケーションサーバ30の合成部36が、マッチング情報を受信する(ステップS56)。   The same processing as that performed for the user terminal 10-1 in steps S30 to S36 is performed for the user terminal 10-2 in steps S37 to S42, and is performed for the user terminal 10-3 in steps S43 to S48. It performs about user terminal 10-4 in Step S49 to Step S54. The matching processing unit 23 of the matching server 20 generates matching information in which the user U1, the user U2, the user U3, and the user U4 are associated, and stores the matching information in the matching information storage unit 22 (step S55). The matching processing unit 23 of the matching server 20 transmits the generated matching information to the application server 30. In the application server 30, the application processing unit 35-1, the application processing unit 35-2, the application processing unit 35-3, and the application processing unit 35-4 receive the matching information transmitted from the matching server 20. . Similarly, the composition unit 36 of the application server 30 receives the matching information (step S56).

合成部36は、マッチングサーバ20から送信されたマッチング情報を受信すると、受信したマッチング情報に基づいてユーザごとの合成定義情報を生成し、合成定義情報記憶部32に記憶させる。そして、合成部36は、アプリケーション処理部35−1から出力される動画と、アプリケーション処理部35−2から出力される動画と、アプリケーション処理部35−3から出力される動画と、アプリケーション処理部35−4から出力される動画とを、ユーザごとの合成定義情報に基づいて合成した合成動画の生成を開始する(ステップS57)。合成部36が合成動画を生成して出力すると(ステップS58)、送信部37は、ユーザごとに生成された合成動画を、それぞれのユーザ端末10に送信する(ステップS59)。   When receiving the matching information transmitted from the matching server 20, the synthesizing unit 36 generates synthesis definition information for each user based on the received matching information, and stores it in the synthesis definition information storage unit 32. The synthesizing unit 36 then, the moving image output from the application processing unit 35-1, the moving image output from the application processing unit 35-2, the moving image output from the application processing unit 35-3, and the application processing unit 35. -4 starts to generate a composite video synthesized from the video output from -4 based on the composite definition information for each user (step S57). When the combining unit 36 generates and outputs a combined moving image (step S58), the transmission unit 37 transmits the combined moving image generated for each user to each user terminal 10 (step S59).

以上説明したように、本実施形態によれば、マッチング情報により対応付けられたユーザ同士の画面を合成した合成動画を生成して送信することにより、ユーザは、同じチームの他のユーザの状況を把握することができ、視野が広がるとともに、他のユーザの状況を考慮しながらゲームをプレイすることができ、ゲーム性が向上する。また、ボイスチャット等によるコミュニケーション以上に、チーム内の他のユーザの動向がより直感的かつ具体的に把握できるため、ゲームの戦略性、没入性の上昇効果が期待できる。   As described above, according to the present embodiment, by generating and transmitting a composite video that combines the screens of users associated with each other by matching information, the user can monitor the situation of other users on the same team. It can be grasped, the field of view is widened, and the game can be played while taking into consideration the conditions of other users, and the game performance is improved. Moreover, since the trend of other users in the team can be grasped more intuitively and specifically than communication by voice chat or the like, it is possible to expect an effect of increasing the strategy and immersiveness of the game.

<第3の実施形態>
次に、本発明の第3の実施形態について説明する。第1の実施形態および第2の実施形態においては、アプリケーションサーバ30が、記憶部31から送信部37の機能部を備える例を示したが、アプリケーションシステム1やアプリケーションシステム2が備える各構成は、クラウド環境やネットワーク環境、プレイヤ数の規模、アプリケーションシステム1やアプリケーションシステム2を構成するために用意されたハードウェアの数やスペック等に応じて、任意の台数のコンピュータ装置に分散または集約して配置することができる。図12は、本実施形態によるアプリケーションシステム3の構成を示すブロック図である。本実施形態のアプリケーションシステム3は、第2の実施形態のアプリケーションシステム2と同様の構成であるが、アプリケーション制御システム130として、記憶サーバ131と、受信サーバ133と、複数のアプリケーション制御サーバ134(アプリケーション制御サーバ134−1、アプリケーション制御サーバ134−2、・・・)と、合成サーバ136と、送信サーバ137とを備えている。なお、本実施形態では、アプリケーション制御システム130とマッチングサーバ20とがアプリケーション管理装置の一例である。
<Third Embodiment>
Next, a third embodiment of the present invention will be described. In 1st Embodiment and 2nd Embodiment, although the application server 30 showed the example provided with the function part of the transmission part 37 from the memory | storage part 31, each structure with which the application system 1 and the application system 2 are provided is as follows. Distributed or aggregated on any number of computer devices according to the cloud environment, network environment, scale of the number of players, number of hardware and specifications prepared for configuring the application system 1 and application system 2, etc. can do. FIG. 12 is a block diagram showing the configuration of the application system 3 according to the present embodiment. The application system 3 according to the present embodiment has the same configuration as that of the application system 2 according to the second embodiment. However, the application control system 130 includes a storage server 131, a reception server 133, and a plurality of application control servers 134 (applications). Control server 134-1, application control server 134-2, ...), composition server 136, and transmission server 137. In the present embodiment, the application control system 130 and the matching server 20 are examples of an application management apparatus.

記憶サーバ131は、第1の実施形態における記憶部31と同様の構成である。受信サーバ133は、第1の実施形態における受信部33と同様の構成である。アプリケーション制御サーバ134は、第1の実施形態におけるアプリケーション制御部34と同様の構成である。合成サーバ136は、第1の実施形態における合成部36と同様の構成である。送信サーバ137は、第1の実施形態における送信部37と同様の構成である。このような構成によっても、第1の実施形態または第2の実施形態と同様のアプリケーションを提供することができる。   The storage server 131 has the same configuration as the storage unit 31 in the first embodiment. The reception server 133 has the same configuration as that of the reception unit 33 in the first embodiment. The application control server 134 has the same configuration as that of the application control unit 34 in the first embodiment. The composition server 136 has the same configuration as that of the composition unit 36 in the first embodiment. The transmission server 137 has the same configuration as the transmission unit 37 in the first embodiment. Even with such a configuration, it is possible to provide an application similar to that of the first embodiment or the second embodiment.

なお、本発明における処理部の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによりアプリケーションの制御を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、ウェブサイト提供環境(あるいは表示環境)を備えたWWWシステムも含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。   The program for realizing the function of the processing unit in the present invention is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read into the computer system and executed to control the application. You may go. Here, the “computer system” includes an OS and hardware such as peripheral devices. Further, the “computer system” includes a WWW system provided with a website providing environment (or display environment). The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Further, the “computer-readable recording medium” refers to a volatile memory (RAM) in a computer system that becomes a server or a client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. In addition, those holding programs for a certain period of time are also included.

また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。   The program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line. The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, what is called a difference file (difference program) may be sufficient.

また、本発明は上述の第1〜第3の実施形態に記載したものに限定されるものではなく、本発明の趣旨の範囲内でなされる変更は、いずれも本発明の範囲に含まれるものである。   Further, the present invention is not limited to those described in the first to third embodiments, and any changes made within the scope of the present invention are included in the scope of the present invention. It is.

1 アプリケーションシステム
2 アプリケーションシステム
3 アプリケーションシステム
5 ネットワーク
10 ユーザ端末
20 マッチングサーバ
21 ユーザ情報記憶部
22 マッチング情報記憶部
23 マッチング処理部
30 アプリケーションサーバ
31 記憶部
32 合成定義情報記憶部
33 受信部
34 アプリケーション制御部
35 アプリケーション処理部
36 合成部
37 送信部
131 記憶サーバ
132 合成定義情報記憶部
133 受信サーバ
134 アプリケーション制御サーバ
135 アプリケーション処理部
136 合成サーバ
137 送信サーバ
DESCRIPTION OF SYMBOLS 1 Application system 2 Application system 3 Application system 5 Network 10 User terminal 20 Matching server 21 User information storage part 22 Matching information storage part 23 Matching processing part 30 Application server 31 Storage part 32 Synthesis | definition definition information storage part 33 Reception part 34 Application control part 35 application processing unit 36 combining unit 37 transmitting unit 131 storage server 132 combining definition information storing unit 133 receiving server 134 application control server 135 application processing unit 136 combining server 137 transmitting server

Claims (6)

複数のユーザ端末のそれぞれから送信される指示情報に基づいて所定の演算処理を行い、演算結果に基づく動画を生成する、各ユーザ端末のそれぞれに対応した複数のアプリケーション処理部と、
前記複数のアプリケーション処理部によって、複数の前記ユーザ端末のそれぞれに応じて生成された前記動画を、画面における所定の領域ごとに表示されるように合成した合成動画を生成する合成部と、
前記合成部によって生成された前記合成動画を、前記ユーザ端末に送信する送信部と、
を備えることを特徴とするアプリケーション管理装置。
A plurality of application processing units corresponding to each of the user terminals, performing predetermined calculation processing based on instruction information transmitted from each of the plurality of user terminals, and generating a moving image based on the calculation result;
A combining unit that generates a combined moving image by combining the moving images generated according to each of the plurality of user terminals by the plurality of application processing units so as to be displayed for each predetermined region on the screen;
A transmission unit that transmits the synthesized video generated by the synthesis unit to the user terminal;
An application management apparatus comprising:
前記合成部は、第1の前記ユーザ端末からの指示情報に基づいて生成された前記動画が表示される画面内の領域の大きさが、第2の前記ユーザ端末からの指示情報に基づいて生成された前記動画が表示される画面内の領域の大きさに対して相対的に大きい前記合成動画を生成し、
前記送信部は、前記第1のユーザ端末に対して前記合成動画を送信する
ことを特徴とする請求項1に記載のアプリケーション管理装置。
The synthesizing unit generates the size of the area in the screen on which the moving image generated based on the instruction information from the first user terminal is displayed based on the instruction information from the second user terminal Generating the synthesized video relatively large with respect to the size of the area in the screen on which the video is displayed,
The application management apparatus according to claim 1, wherein the transmission unit transmits the synthesized moving image to the first user terminal.
前記ユーザ端末に対して送信する前記合成動画における画面内に他のユーザ端末からの指示情報に基づいて生成された動画を合成する領域の属性を定義した合成定義情報を記憶する合成定義情報記憶部を備え、
前記合成部は、前記合成定義情報に基づいて、前記ユーザ端末に送信する前記合成動画を生成する
ことを特徴とする請求項1または請求項2に記載のアプリケーション管理装置。
A composition definition information storage unit that stores composition definition information that defines attributes of a region for compositing a moving image generated based on instruction information from another user terminal in the screen of the synthesized moving image transmitted to the user terminal. With
The application management apparatus according to claim 1, wherein the synthesis unit generates the synthesized moving image to be transmitted to the user terminal based on the synthesis definition information.
前記アプリケーション処理部は、ゲーム処理である前記演算処理の演算結果に基づいて前記動画を生成する
ことを特徴とする請求項1から請求項3のいずれか1項に記載のアプリケーション管理装置。
The application management apparatus according to any one of claims 1 to 3, wherein the application processing unit generates the moving image based on a calculation result of the calculation process that is a game process.
アプリケーション管理装置の制御方法であって、
複数のユーザ端末のそれぞれに対応した複数のアプリケーション処理部のそれぞれが、対応する前記ユーザ端末から送信される指示情報に基づいて所定の演算処理を行い、演算結果に基づく動画を生成するステップと、
前記複数のアプリケーション処理部によって、複数の前記ユーザ端末のそれぞれに応じて生成された前記動画を、画面における所定の領域ごとに表示されるように合成した合成動画を生成するステップと、
生成した前記合成動画を、前記ユーザ端末に送信するステップと、
を備えることを特徴とするアプリケーション管理装置の制御方法。
A method for controlling an application management apparatus, comprising:
Each of a plurality of application processing units corresponding to each of a plurality of user terminals performs predetermined calculation processing based on instruction information transmitted from the corresponding user terminal, and generates a moving image based on the calculation results;
Generating a combined moving image by combining the moving images generated according to each of the plurality of user terminals by the plurality of application processing units so as to be displayed for each predetermined area on the screen;
Transmitting the generated synthesized video to the user terminal;
A method for controlling an application management apparatus, comprising:
アプリケーション管理装置のコンピュータを、
複数のユーザ端末のそれぞれから送信される指示情報に基づいて所定の演算処理を行い、演算結果に基づく動画を生成する、各ユーザ端末のそれぞれに対応した複数のアプリケーション処理部、
前記複数のアプリケーション処理部によって、複数の前記ユーザ端末のそれぞれに応じて生成された前記動画を、画面における所定の領域ごとに表示されるように合成した合成動画を生成する合成部、
前記合成部によって生成された前記合成動画を、前記ユーザ端末に送信する送信部、
として機能させるための制御プログラム。
Application management device computer
A plurality of application processing units corresponding to each of the user terminals, performing predetermined calculation processing based on instruction information transmitted from each of the plurality of user terminals, and generating a moving image based on the calculation result,
A combining unit that generates a combined moving image by combining the moving images generated according to each of the plurality of user terminals by the plurality of application processing units so as to be displayed for each predetermined region on the screen;
A transmission unit that transmits the synthesized video generated by the synthesis unit to the user terminal;
Control program to function as.
JP2012109515A 2012-05-11 2012-05-11 Application management device, application management device control method, and application management device control program Pending JP2013239766A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012109515A JP2013239766A (en) 2012-05-11 2012-05-11 Application management device, application management device control method, and application management device control program
PCT/JP2013/061745 WO2013168547A1 (en) 2012-05-11 2013-04-22 Application management device, control method for application management device, and control program for application management device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012109515A JP2013239766A (en) 2012-05-11 2012-05-11 Application management device, application management device control method, and application management device control program

Publications (2)

Publication Number Publication Date
JP2013239766A true JP2013239766A (en) 2013-11-28
JP2013239766A5 JP2013239766A5 (en) 2015-06-25

Family

ID=49550598

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012109515A Pending JP2013239766A (en) 2012-05-11 2012-05-11 Application management device, application management device control method, and application management device control program

Country Status (2)

Country Link
JP (1) JP2013239766A (en)
WO (1) WO2013168547A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018164227A (en) * 2017-03-27 2018-10-18 株式会社Nttぷらら Video distribution system and video distribution method

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7181173B2 (en) 2019-09-13 2022-11-30 株式会社スクウェア・エニックス Program, information processing device, information processing system and method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001157782A (en) * 1999-12-02 2001-06-12 Dowango:Kk Opponent determination system
JP2007301371A (en) * 2006-05-10 2007-11-22 Konami Gaming Inc System and method for streaming game and service to gaming apparatus
JP2011087649A (en) * 2009-10-20 2011-05-06 Konami Digital Entertainment Co Ltd Game system
WO2012053273A1 (en) * 2010-10-20 2012-04-26 株式会社ソニー・コンピュータエンタテインメント Image processing system, image processing method, dynamic image transmission device, dynamic image reception device, information storage medium, and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001157782A (en) * 1999-12-02 2001-06-12 Dowango:Kk Opponent determination system
JP2007301371A (en) * 2006-05-10 2007-11-22 Konami Gaming Inc System and method for streaming game and service to gaming apparatus
JP2011087649A (en) * 2009-10-20 2011-05-06 Konami Digital Entertainment Co Ltd Game system
WO2012053273A1 (en) * 2010-10-20 2012-04-26 株式会社ソニー・コンピュータエンタテインメント Image processing system, image processing method, dynamic image transmission device, dynamic image reception device, information storage medium, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018164227A (en) * 2017-03-27 2018-10-18 株式会社Nttぷらら Video distribution system and video distribution method

Also Published As

Publication number Publication date
WO2013168547A1 (en) 2013-11-14

Similar Documents

Publication Publication Date Title
JP7158858B2 (en) Capturing asynchronous comments on pre-recorded gameplay
JP5520190B2 (en) Image processing system, image processing method, moving image transmitting apparatus, moving image receiving apparatus, program, and information storage medium
US9526989B2 (en) Method and apparatus for receiving game streaming data, and method and server for transmitting game streaming data
JP5089801B1 (en) User organization device, user organization method, and cloud computing system
JP6378849B1 (en) Server and program
JP2015153101A (en) Information sharing system, information-processing device, program, and information sharing method
TW201438796A (en) Automatic generation of suggested mini-games for cloud-gaming based on recorded gameplay
KR102307714B1 (en) Server device, and computer programs used therein
WO2023076015A1 (en) Fractional non-fungible token for game related digital assets
JP5856096B2 (en) MATCHING SYSTEM, MATCHING CONTROL METHOD, AND MATCHING CONTROL PROGRAM
CN113272031A (en) Integrated interface for dynamic user experience
JP2013212293A (en) Game system, and control method thereof
JP6905826B2 (en) Programs, game machines, and server devices
JP7366948B2 (en) Game replay method and system
JP2012085876A (en) Image processing system, image processing method, program, and information storage medium
WO2013168547A1 (en) Application management device, control method for application management device, and control program for application management device
JP2021072965A5 (en)
JP2014198183A (en) Game system and program
JP2017055898A (en) Game program and game system
JP5203533B1 (en) Game expansion device, game expansion method, and game expansion program
JP2020151233A (en) Computer system, terminal and distribution server
CN115738295A (en) Spectator system in an online game
JP2022156117A (en) Content distribution system and program
JP2021137394A (en) Computer system, game system, replay video provision method and program
JP2014016828A (en) Application management device, application management system, application management method and application management program

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150507

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150507

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160315

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160516

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160614