JP2021015404A - Image processing apparatus, image processing method, and program - Google Patents

Image processing apparatus, image processing method, and program Download PDF

Info

Publication number
JP2021015404A
JP2021015404A JP2019129208A JP2019129208A JP2021015404A JP 2021015404 A JP2021015404 A JP 2021015404A JP 2019129208 A JP2019129208 A JP 2019129208A JP 2019129208 A JP2019129208 A JP 2019129208A JP 2021015404 A JP2021015404 A JP 2021015404A
Authority
JP
Japan
Prior art keywords
data
image processing
processing apparatus
operating state
player
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019129208A
Other languages
Japanese (ja)
Inventor
陽輔 佐藤
Yousuke Sato
陽輔 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019129208A priority Critical patent/JP2021015404A/en
Publication of JP2021015404A publication Critical patent/JP2021015404A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

To determine a movement state of an object in a virtual viewpoint image.SOLUTION: An image processing apparatus of the invention generates a virtual viewpoint image on the basis of information about a virtual viewpoint, and comprises: a first input unit (301) which acquires tracking data of an object; a second input unit (302) which acquires determination information for determining a movement state of the object; a determination unit (304) which determines the movement state of the object on the basis of the determination information and the tracking data; a third input unit (303) which acquires data of a three-dimensional model of the object; and a display control unit (305) which causes a virtual viewpoint image based on the data of the three-dimensional model of the object and the determined movement state of the object to be displayed in a prescribed display mode.SELECTED DRAWING: Figure 3

Description

本発明は、トラッキングデータを用いて、オブジェクトの動作状態を判別する技術に関する。 The present invention relates to a technique for determining an operating state of an object using tracking data.

従来、2次元の画像処理技術において、オブジェクトの2次元のトラッキングデータを活用した画像解析技術が知られている。特許文献1には、カメラにより撮影された映像データにより生成されるオブジェクトの2次元のトラッキングデータから、そのオブジェクトが不動のオブジェクトであるかを判別して、映像データとともに判別結果を表示する技術が開示されている。 Conventionally, in a two-dimensional image processing technique, an image analysis technique utilizing two-dimensional tracking data of an object is known. Patent Document 1 describes a technique for discriminating whether an object is an immovable object from two-dimensional tracking data of an object generated by video data captured by a camera, and displaying the discrimination result together with the video data. It is disclosed.

また、他方で、3次元の画像処理技術において、仮想視点画像等を生成する技術が知られている。特許文献2には、複数のカメラで撮影した画像から再構成したオブジェクトの3次元情報をCG(コンピュータグラフィクス)で表示させることで、仮想視点画像を生成する技術が開示されている。 On the other hand, in a three-dimensional image processing technique, a technique for generating a virtual viewpoint image or the like is known. Patent Document 2 discloses a technique for generating a virtual viewpoint image by displaying three-dimensional information of an object reconstructed from images taken by a plurality of cameras by CG (computer graphics).

特開2017−135476号公報Japanese Unexamined Patent Publication No. 2017-135476 特開2018−55644号公報Japanese Unexamined Patent Publication No. 2018-55644

ここで、従来、特許文献2に開示される仮想視点画像において、特許文献1のようにトラッキングデータを活用したものがなく、そのため、オブジェクトの動作状態を判別することは行われていなかった。詰まるところ、仮想視点画像において、視聴者は、オブジェクトの動作状態を認識することができないという問題があった。 Here, conventionally, there is no virtual viewpoint image disclosed in Patent Document 2 that utilizes tracking data as in Patent Document 1, and therefore, the operating state of an object has not been determined. In the end, there is a problem that the viewer cannot recognize the operating state of the object in the virtual viewpoint image.

本発明は、前記従来の問題に鑑みてなされたものであって、その目的は、仮想視点画像において、オブジェクトの動作状態を判別することである。 The present invention has been made in view of the above-mentioned conventional problems, and an object of the present invention is to determine the operating state of an object in a virtual viewpoint image.

本発明は、仮想視点に関する情報に基づいて仮想視点画像を生成する画像処理装置であって、オブジェクトのトラッキングデータを取得する第1の取得手段と、前記オブジェクトの動作状態を判別するための判別情報を取得する第2の取得手段と、前記判別情報と前記トラッキングデータとに基づいて、前記オブジェクトの動作状態を判別する判別手段と、前記オブジェクトの3次元モデルのデータを取得する第3の取得手段と、所定の表示態様により、前記オブジェクトの3次元モデルのデータに基づく前記仮想視点画像と、前記判別された前記オブジェクトの動作状態とを表示させる表示制御手段とを備えることを特徴とする。 The present invention is an image processing device that generates a virtual viewpoint image based on information about a virtual viewpoint, and is a first acquisition means for acquiring tracking data of an object and discrimination information for discriminating the operating state of the object. A second acquisition means for determining the operating state of the object based on the discrimination information and the tracking data, and a third acquisition means for acquiring data of a three-dimensional model of the object. And, according to a predetermined display mode, the virtual viewpoint image based on the data of the three-dimensional model of the object and the display control means for displaying the discriminated operating state of the object are provided.

本発明によれば、仮想視点画像において、オブジェクトの動作状態を判別することができる。 According to the present invention, it is possible to determine the operating state of an object in a virtual viewpoint image.

仮想視点映像システムの概略図である。It is a schematic diagram of a virtual viewpoint video system. サーバのハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware configuration of a server. 画像処理装置の機能ブロック図である。It is a functional block diagram of an image processing apparatus. 画像処理装置における処理の手順を示すフローチャートである。It is a flowchart which shows the processing procedure in an image processing apparatus. オブジェクトトラッキングデータを示す模式図である。It is a schematic diagram which shows the object tracking data. ユーザ定義データを示す模式図である。It is a schematic diagram which shows the user-defined data. オブジェクトの動作状態の算出方法を示す模式図である。It is a schematic diagram which shows the calculation method of the operation state of an object. オブジェクト及びオブジェクトについての方向価値を示す模式図である。It is a schematic diagram which shows the object and the direction value about the object. 所定のフレーム時刻におけるフレームを示している。Indicates a frame at a predetermined frame time. 画像処理装置における処理の手順を示すフローチャートである。It is a flowchart which shows the processing procedure in an image processing apparatus. 物体追跡線を示す模式図である。It is a schematic diagram which shows the object tracking line.

以下、本発明の実施形態について、図面を参照して説明する。なお、以下の実施形態は本発明を限定するものではなく、また、本実施形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。その他、補足として、同一の構成については、同じ符号を付して説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. It should be noted that the following embodiments do not limit the present invention, and not all combinations of features described in the present embodiment are essential for the means for solving the present invention. In addition, as a supplement, the same configuration will be described with the same reference numerals.

(実施形態1)
図1は、仮想視点映像システムの概略図である。仮想視点映像システムは、カメラ(撮影装置)101−114、サーバ117、ケーブル115を備える。図1に示される例において、カメラ101−114は、各々異なる撮影視点で、競技場116を取り囲むように撮影する。カメラ101−114の各々は、オブジェクトを映像データ(動画データ)として撮影する機能、また、撮影した映像データを接続したケーブル115によってサーバ117に伝送する機能を有する。本実施形態において、伝送される映像データはYCbCrの3コンポーネントの信号であり、また、その信号比率は4:2:2である。
(Embodiment 1)
FIG. 1 is a schematic view of a virtual viewpoint video system. The virtual viewpoint video system includes a camera (shooting device) 101-114, a server 117, and a cable 115. In the example shown in FIG. 1, the cameras 101-114 take pictures so as to surround the stadium 116 from different shooting viewpoints. Each of the cameras 101-114 has a function of shooting an object as video data (moving image data) and a function of transmitting the shot video data to the server 117 by a cable 115 connected to the camera. In the present embodiment, the transmitted video data is a signal of three components of YCbCr, and the signal ratio thereof is 4: 2: 2.

なお、カメラ101−114の各々が有する機能として、上述したもの以外に、例えば、オートフォーカス機能、自動露出調整機能等も有する。また、カメラ101−114の各々には、不図示のコンパクトフラッシュ(登録商標)、SD(Solid State Drive)等の記録媒体が内蔵されており、カメラ101−114の各々は、その記録媒体に撮影した映像データを記録することができる。その他、映像データ形式として、例えば、RGB、グレースケール等の別の表現形式を用いてもよく、また、映像データの信号比率として、例えば、4:4:4、4:2:0等の比率を用いてもよい。 In addition to the functions described above, each of the cameras 101-114 also has, for example, an autofocus function and an automatic exposure adjustment function. In addition, each of the cameras 101-114 has a built-in recording medium such as a compact flash (registered trademark) and SD (Solid State Drive) (not shown), and each of the cameras 101-114 takes a picture on the recording medium. It is possible to record the recorded video data. In addition, another expression format such as RGB or grayscale may be used as the video data format, and the signal ratio of the video data is, for example, 4: 4: 4, 4: 2: 0 or the like. May be used.

サーバ117は、映像データを入力として、仮想視点映像データを生成及び表示を行なうとともに、オブジェクトの動作状態の判別・表示も行なう。なお、サーバ117における処理の詳細は、図2を用いて後述する。また、オブジェクトの動作状態は、そのオブジェクトの絶対的又は相対的な位置の変位のことである。 The server 117 receives the video data as an input, generates and displays the virtual viewpoint video data, and also determines and displays the operating state of the object. The details of the processing on the server 117 will be described later with reference to FIG. The operating state of an object is the displacement of the absolute or relative position of the object.

ケーブル115は、映像データを、ケーブルの端部(不図示)から入出力することができる。本実施形態では、HD−SDI(High Definition Serial Digital Inerface)規格に基づいた伝送ケーブルであって、ケーブル長として30mの伝送ケーブルを用いる。 The cable 115 can input / output video data from the end of the cable (not shown). In the present embodiment, a transmission cable based on the HD-SDI (High Definition Serial Digital Inerface) standard, and a transmission cable having a cable length of 30 m is used.

ケーブル115は、図1に示されるように、カメラ101−114の各々とサーバ117を接続している。具体的には、カメラ101−114の各々は、ケーブル115により、(例えば、図1に示されるように、カメラ102が、カメラ102と隣り合うカメラ101とカメラ103と接続されるように)リング状に接続される。 The cable 115 connects each of the cameras 101-114 to the server 117, as shown in FIG. Specifically, each of the cameras 101-114 is ringed by a cable 115 (eg, such that the camera 102 is connected to the camera 101 and the camera 103 adjacent to the camera 102, as shown in FIG. 1). It is connected like a camera.

なお、ケーブル115として、上述したもの以外に、LAN(Local Area Network)、HDMI(登録商標)(High-Definition Multimedia Interface)等の規格に基づいたケーブルを用いてもよい。また、ケーブル115に関して、映像データの伝送時に、熱損によりS/N比(Signal to Noise Ratio)が低下するため、不図示の映像増幅器により伝送する映像データを増幅してもよい。 As the cable 115, in addition to the cables described above, cables based on standards such as LAN (Local Area Network) and HDMI (registered trademark) (High-Definition Multimedia Interface) may be used. Further, with respect to the cable 115, since the S / N ratio (Signal to Noise Ratio) decreases due to heat loss during transmission of video data, the video data transmitted by a video amplifier (not shown) may be amplified.

このように、仮想視点映像システムでは、カメラ101−114及びサーバ117がケーブル115により接続される。そのため、カメラ101−114により撮影された競技場116で行われている競技の映像データを、リアルタイムでサーバ117に伝送することができる。 As described above, in the virtual viewpoint video system, the camera 101-114 and the server 117 are connected by the cable 115. Therefore, the video data of the competition being held at the stadium 116 taken by the camera 101-114 can be transmitted to the server 117 in real time.

次に、図2を用いて、サーバ117のハードウェア構成を示すブロック図である。サーバ117は、図2に示されるように、入力部201、出力部202、中央演算部203、主記憶部204、補助記憶部205、バス206を備える。 Next, FIG. 2 is a block diagram showing a hardware configuration of the server 117 with reference to FIG. As shown in FIG. 2, the server 117 includes an input unit 201, an output unit 202, a central calculation unit 203, a main storage unit 204, an auxiliary storage unit 205, and a bus 206.

入力部201は、カメラ101−114からケーブル115により伝送される映像データを入力として受信する。入力部201は、例えば、HD−SDIキャプチャーボード等である。出力部202は、仮想視点映像データ、オブジェクトの動作状態を表示制御(出力)する。なお、仮想視点映像データは、公知の技術を用いて、映像データより生成される。また、オブジェクトの動作状態の詳細については、後述の図7及び図8を用いて説明する。 The input unit 201 receives the video data transmitted from the camera 101-114 via the cable 115 as an input. The input unit 201 is, for example, an HD-SDI capture board or the like. The output unit 202 displays and controls (outputs) the virtual viewpoint video data and the operating state of the object. The virtual viewpoint video data is generated from the video data by using a known technique. The details of the operating state of the object will be described with reference to FIGS. 7 and 8 described later.

中央演算部203は、実行されるプログラムの処理ステップに応じた演算処理を実行する。なお、中央演算部203は、画像処理プログラムを実行することで、画像処理装置として機能する。また、実行されるプログラムの処理ステップの詳細については、図4を用いて後述する。主記憶部204は、中央演算部203によるデータの制御により、補助記憶部205に記録された映像データ、ユーザ定義データ、処理プログラム等を適宜、一時的に記憶する。なお、ユーザ定義データの詳細については、図6を用いて後述する。 The central arithmetic unit 203 executes arithmetic processing according to the processing step of the program to be executed. The central calculation unit 203 functions as an image processing device by executing an image processing program. The details of the processing steps of the program to be executed will be described later with reference to FIG. The main storage unit 204 temporarily temporarily stores the video data, the user-defined data, the processing program, and the like recorded in the auxiliary storage unit 205 by controlling the data by the central calculation unit 203. The details of the user-defined data will be described later with reference to FIG.

補助記憶部205は、映像データ、ユーザ定義データ、処理プログラム等を記録する。バス206は、入力部201、出力部202、中央演算部203、主記憶部204、及び補助記憶部205を接続し、各種データの伝送を可能とする。 The auxiliary storage unit 205 records video data, user-defined data, a processing program, and the like. The bus 206 connects the input unit 201, the output unit 202, the central calculation unit 203, the main storage unit 204, and the auxiliary storage unit 205, and enables transmission of various data.

以上の構成において、処理プログラムが実行されると、その処理プログラムの処理ステップに応じて、記録された映像データ、ユーザ定義データ、仮想視点映像データが各ブロック間で入出力される。なお、サーバ117は、上述のブロック以外のブロックとして、例えば、マウス、キーボート等の標準入力装置、テレビジョンディスプレイ等表示装置を備えてもよい。サーバ117が標準入力装置を備えることで、ユーザは、意図する表示方法をサーバ117(画像処理装置)に指示することができる。また、サーバ117が表示装置を備えることで、表示装置に、仮想視点映像データを表示させることができる。 In the above configuration, when the processing program is executed, the recorded video data, user-defined data, and virtual viewpoint video data are input / output between the blocks according to the processing steps of the processing program. The server 117 may include, for example, a standard input device such as a mouse or a keyboard, or a display device such as a television display as a block other than the above-mentioned block. When the server 117 includes a standard input device, the user can instruct the server 117 (image processing device) of the intended display method. Further, when the server 117 includes a display device, the display device can display the virtual viewpoint video data.

図3は、サーバ117の中央演算部203が画像処理プログラムを実行して、画像処理装置として機能する場合の機能ブロック図である。なお、図3において示される一部の機能ブロックは、ハードウェアで実現することもできる。また、画像処理装置は、第1入力部301、第2入力部302、第3入力部303、判別部304、表示制御部305を備える。 FIG. 3 is a functional block diagram when the central calculation unit 203 of the server 117 executes an image processing program and functions as an image processing device. Note that some of the functional blocks shown in FIG. 3 can also be realized by hardware. Further, the image processing device includes a first input unit 301, a second input unit 302, a third input unit 303, a discrimination unit 304, and a display control unit 305.

第1入力部301は、オブジェクトトラッキングデータを入力として受信する。なお、オブジェクトトラッキングデータの詳細については、図5を用いて後述する。第2入力部302は、ユーザ定義データを入力として受信する。なお、ユーザ定義データの詳細については、図6を用いて後述する。第3入力部303は、3次元モデルのデータ(以下、3Dモデルデータと称する)を入力として受信する。なお、3Dモデルデータには、オブジェクトの形状を示す形状データ、及びオブジェクトのテクスチャを示すテクスチャデータが含まれる。また、3Dモデルデータのオブジェクトについては、図5(図5(a))を用いて後述する。 The first input unit 301 receives the object tracking data as an input. The details of the object tracking data will be described later with reference to FIG. The second input unit 302 receives the user-defined data as an input. The details of the user-defined data will be described later with reference to FIG. The third input unit 303 receives the data of the three-dimensional model (hereinafter referred to as 3D model data) as an input. The 3D model data includes shape data indicating the shape of the object and texture data indicating the texture of the object. The 3D model data object will be described later with reference to FIG. 5 (FIG. 5 (a)).

判別部304は、オブジェクトトラッキングデータとユーザ定義データからオブジェクトの動作状態を判別する。即ち、判別部304は、オブジェクトトラッキングデータとユーザ定義データを入力として、オブジェクトの動作状態を出力する。表示制御部305は、オブジェクトの動作状態と3Dモデルデータを入力として、表示データを出力する。表示データは、上述の図2に示される出力部202に転送されて、視聴者によって視聴される。 The determination unit 304 determines the operating state of the object from the object tracking data and the user-defined data. That is, the discrimination unit 304 inputs the object tracking data and the user-defined data, and outputs the operation state of the object. The display control unit 305 inputs the operating state of the object and the 3D model data, and outputs the display data. The display data is transferred to the output unit 202 shown in FIG. 2 described above and viewed by the viewer.

次に、図4のフローチャートを用いて、画像処理装置における処理の手順を説明する。なお、フローチャートの説明における記号「S」は、ステップを表すものとする。この点、以下のフローチャートの説明においても同様とする。 Next, the procedure of processing in the image processing apparatus will be described with reference to the flowchart of FIG. The symbol "S" in the description of the flowchart represents a step. The same applies to the description of the following flowchart.

S401において、第1入力部301は、オブジェクトトラッキングデータを入力として受信する。S402において、第2入力部302は、ユーザ定義データを入力として受信する。S403において、判別部304は、オブジェクトの動作状態を判別する。なお、この判別する処理に関して、概略的には、ユーザ定義データにおいて指定されているオブジェクトの動作状態について、オブジェクトトラッキングデータから抽出されるオブジェクトの分布状態に基づいて、オブジェクトの動作状態を判別する。補足として、分布状態とは、例えば、後述の図7に示されるようなオブジェクト701、702、ボール703の位置(分布)する状態のことである。 In S401, the first input unit 301 receives the object tracking data as an input. In S402, the second input unit 302 receives the user-defined data as an input. In S403, the determination unit 304 determines the operating state of the object. Regarding the process for determining this, generally, regarding the operating state of the object specified in the user-defined data, the operating state of the object is determined based on the distribution state of the object extracted from the object tracking data. As a supplement, the distribution state is, for example, a state in which the objects 701, 702, and the ball 703 are positioned (distributed) as shown in FIG. 7 described later.

S404において、第3入力部303は、3Dモデルデータを入力として受信する。S405において、表示制御部305は、表示データを出力する(即ち、表示制御処理を実行する)。なお、この表示制御処理に関して、詳細は図8を用いて後述するが、概略的には、オブジェクトの動作状態及び3Dモデルデータを用いて表示データを生成し、その生成した表示データを出力部202に送信する処理である。 In S404, the third input unit 303 receives the 3D model data as an input. In S405, the display control unit 305 outputs display data (that is, executes display control processing). The details of this display control process will be described later with reference to FIG. 8, but roughly, display data is generated using the operating state of the object and 3D model data, and the generated display data is output from the output unit 202. It is a process to send to.

次に、図5を用いて、オブジェクトトラッキングデータについて説明する。図5は、オブジェクトトラッキングデータを示す模式図である。オブジェクトトラッキングデータは、フレームに跨る同一のオブジェクトにおける特徴を示すデータである。このオブジェクトトラッキングデータに関して、例えば、映像データのフレーム間で3次元モデル同士の対応する位置を合わせた結果を用いて、求めることができる。具体的には、その対応付けられている3次元モデル間の頂点座標の差分値を先頭フレームから順に算出することで、求めることができる。 Next, the object tracking data will be described with reference to FIG. FIG. 5 is a schematic diagram showing object tracking data. Object tracking data is data that shows the characteristics of the same object that spans frames. The object tracking data can be obtained, for example, by using the result of aligning the corresponding positions of the three-dimensional models between the frames of the video data. Specifically, it can be obtained by calculating the difference value of the vertex coordinates between the associated three-dimensional models in order from the first frame.

以下、図5(a)から図5(c)の各図について説明する。図5(a)は、CG(コンピュータグラフィクス)であり、3次元ワールド座標系におけるオブジェクトを模式的に示した図である。なお、図5(a)では、2つのフレーム時刻t0、t1における複数のオブジェクトが示されている。 Hereinafter, each of FIGS. 5 (a) to 5 (c) will be described. FIG. 5A is CG (computer graphics) and is a diagram schematically showing an object in a three-dimensional world coordinate system. Note that FIG. 5A shows a plurality of objects at two frame times t0 and t1.

フレーム時刻t0において、第1の選手501、第2の選手502、及びボール503がオブジェクトとして示される。なお、フレーム時刻t0では、ボール503を持って走っている第2の選手502に対して、第1の選手501がタックルをしようとしている様子が示されている。 At frame time t0, the first player 501, the second player 502, and the ball 503 are shown as objects. At frame time t0, it is shown that the first player 501 is trying to tackle the second player 502 running with the ball 503.

また、フレーム時刻t1において、フレーム時刻t0と同じく、第1の選手501、第2の選手502、及びボール503の3つのオブジェクトが示されている。フレーム時刻t1では、フレーム時刻t0よりも1フレーム分、時間が経過しており、第1の選手501が、タックルによって、第2の選手502の足を捉えようとしている様子が示されている。 Further, at the frame time t1, three objects of the first player 501, the second player 502, and the ball 503 are shown as in the frame time t0. At the frame time t1, one frame has passed from the frame time t0, and it is shown that the first player 501 is trying to catch the foot of the second player 502 by the tackle.

図5(b)は、オブジェクトトラッキングデータのデータ構造を示す模式図である。オブジェクトトラッキングデータクラス521は、1又は複数のフレームデータクラス522を保持する構造を有する。フレームデータクラス522は、1又は複数のオブジェクトデータ523を保持する構造を有する。また、フレームデータクラス522は、各フレームデータを識別するフレームIDを保持する。これにより、オブジェクトトラッキングデータを参照する際に、フレームの識別が容易なデータ構造を備える。オブジェクトデータ523は、オブジェクトを識別するオブジェクトID(識別情報)、オブジェクト固有のワールド座標値、オブジェクト固有の属性情報を保持する。 FIG. 5B is a schematic diagram showing a data structure of object tracking data. The object tracking data class 521 has a structure that holds one or more frame data classes 522. The frame data class 522 has a structure for holding one or more object data 523. Further, the frame data class 522 holds a frame ID that identifies each frame data. As a result, when referring to the object tracking data, a data structure that makes it easy to identify the frame is provided. The object data 523 holds an object ID (identification information) that identifies an object, an object-specific world coordinate value, and an object-specific attribute information.

ワールド座標値には、3次元ワールド座標系におけるオブジェクトの配置座標位置が設定される。オブジェクトの配置座標位置は、オブジェクトを構成するオブジェクトデータが有する複数のポリゴンデータを用いて算出される。具体的には、複数のポリゴンデータの各重心座標値から算出される。なお、この方法以外の方法で、3次元ワールド座標系におけるオブジェクトの配置座標位置を算出(定義)してもよく、例えば、複数のポリゴンデータの各頂点座標値のうち、Y軸方向等の所定の軸方向における最大値で定義してもよい。 The arrangement coordinate position of the object in the three-dimensional world coordinate system is set in the world coordinate value. The arrangement coordinate position of the object is calculated by using a plurality of polygon data possessed by the object data constituting the object. Specifically, it is calculated from each center of gravity coordinate value of a plurality of polygon data. In addition, a method other than this method may be used to calculate (define) the arrangement coordinate position of the object in the three-dimensional world coordinate system. For example, among the coordinate values of each vertex of the plurality of polygon data, the Y-axis direction and the like are predetermined. It may be defined by the maximum value in the axial direction of.

属性情報は、3次元ワールド座標系におけるオブジェクトの配置座標位置以外の固有の属性情報である。この固有の属性情報には、“選手”、“ボール” 、“ゴール”等の単体のオブジェクトの形状情報から判別可能な情報や“チーム”、“ポジション”等の複数のオブジェクトの相対位置から判別可能な情報が含まれる。 The attribute information is unique attribute information other than the arrangement coordinate position of the object in the three-dimensional world coordinate system. This unique attribute information is discriminated from information that can be discriminated from the shape information of a single object such as "player", "ball", and "goal", and from the relative positions of multiple objects such as "team" and "position". Contains possible information.

なお、本明細書において、ダブルクオーテーション(“”)で囲まれた文字、単語は、データを示すものとし、また、シングルクォーテーション(‘’)で囲まれた文字、単語は、オブジェクトの動作状態の具体的形態を示すものとする。 In the present specification, the characters and words enclosed in double quotation marks (“”) indicate data, and the characters and words enclosed in single quotation marks ('') are the operating states of the object. It shall show the concrete form of.

図5(c)は、図5(b)に示されるオブジェクトトラッキングデータのデータ構造に基づいて、図5(a)で図示されたオブジェクトから抽出したオブジェクトトラッキングデータを模式的に示した図である。即ち、図5(a)で図示されたオブジェクトは、図5(b)に示されるオブジェクトトラッキングデータのデータ構造に基づいて、図5(c)に示されるデータ形式でデータ化される。 FIG. 5 (c) is a diagram schematically showing object tracking data extracted from the object shown in FIG. 5 (a) based on the data structure of the object tracking data shown in FIG. 5 (b). .. That is, the object shown in FIG. 5A is converted into data in the data format shown in FIG. 5C based on the data structure of the object tracking data shown in FIG. 5B.

なお、図5(c)では、図中のt0、t1の各行において、各々、図5(a)の2つのフレーム時刻t0、t1に対応したフレームデータを示している。フレーム時刻t0におけるフレームデータとして、図5(a)のフレーム時刻t0における複数のオブジェクトに対応して、オブジェクトID1、ID2、ID3の3つのオブジェクトデータがある。オブジェクトID1のオブジェクトデータは、IDとしてID1、ワールド座標値としてgx01、gy01、gz01、属性情報として第1の選手を保持する。オブジェクトID2のオブジェクトデータは、IDとしてID2、ワールド座標値としてgx02、gy02、gz02、属性情報として第2の選手を保持する。オブジェクトID3のオブジェクトデータは、IDとしてID3、ワールド座標値としてgx03、gy03、gz03、属性情報としてボールを保持する。 Note that, in FIG. 5 (c), each line of t0 and t1 in the figure shows frame data corresponding to the two frame times t0 and t1 of FIG. 5 (a), respectively. As the frame data at the frame time t0, there are three object data of object ID1, ID2, and ID3 corresponding to the plurality of objects at the frame time t0 in FIG. 5A. The object data of the object ID1 holds ID1 as the ID, gx01, gy01, gz01 as the world coordinate values, and the first player as the attribute information. The object data of the object ID2 holds ID2 as the ID, gx02, gy02, gz02 as the world coordinate values, and the second player as the attribute information. The object data of the object ID3 holds the ID3 as the ID, gx03, gy03, gz03 as the world coordinate values, and the ball as the attribute information.

また、フレーム時刻t1におけるフレームデータも、フレーム時刻t0におけるフレームデータと同様に、図5(a)のフレーム時刻t1における複数のオブジェクトに対応して、オブジェクトID1、ID2、ID3の3つのオブジェクトデータがある。オブジェクトID1のオブジェクトデータは、IDとしてID1、ワールド座標値としてgx11、gy11、gz11、属性情報として第1の選手を保持する。オブジェクトID2のオブジェクトデータは、IDとしてID2、ワールド座標値としてgx12、gy12、gz12、属性情報として第2の選手を保持する。オブジェクトID3のオブジェクトデータは、IDとしてID3、ワールド座標値としてgx13、gy13、gz13、属性情報としてボールを保持する。このように、フレーム時刻t0、t1で、オブジェクトID1、ID2、ID3の各々に関して、保持しているワールド座標値が変化する。 Further, as for the frame data at the frame time t1, similarly to the frame data at the frame time t0, the three object data of the object ID1, ID2, and ID3 correspond to the plurality of objects at the frame time t1 in FIG. 5A. is there. The object data of the object ID1 holds ID1 as the ID, gx11, gy11, gz11 as the world coordinate values, and the first player as the attribute information. The object data of the object ID2 holds ID2 as the ID, gx12, gy12, gz12 as the world coordinate values, and the second player as the attribute information. The object data of the object ID3 holds the ID3 as the ID, gx13, gy13, gz13 as the world coordinate values, and the ball as the attribute information. In this way, at the frame times t0 and t1, the held world coordinate values change for each of the objects ID1, ID2, and ID3.

以上、オブジェクトトラッキングデータの例として、フレーム時刻の数が2つ、オブジェクトの数が3つである場合について説明したが、必ずしもこれに限られない。したがって、オブジェクトの数として、3つに限らず、3つよりも多い数を定義することもできる。例えば、ラグビー競技の場合、オブジェクトトラッキングデータのオブジェクトの数として、選手が1チーム15人、ボールが1つ、ゴールバーが2つであることから、合計33個のオブジェクトを定義することができる。補足として、オブジェクトが選手等、人物像である場合、人体の部位によってオブジェクトを定義してもよい。 As an example of the object tracking data, the case where the number of frame times is two and the number of objects is three has been described above, but the present invention is not necessarily limited to this. Therefore, the number of objects is not limited to three, and a number greater than three can be defined. For example, in the case of a rugby game, as the number of objects in the object tracking data, since there are 15 players per team, 1 ball, and 2 goal bars, a total of 33 objects can be defined. As a supplement, when the object is a human figure such as a player, the object may be defined by a part of the human body.

また、フレーム時刻の数として、2つに限らず、映像データの有するフレームの数に応じて定義してもよい。その他、補足として、上述では、フレーム時刻をt0、t1として説明したが、フレーム時刻t0とt1の時刻差の逆数は、フレームレートに一致する。なお、フレームレートとして、映像機器で一般的に適用される24、30、60、120fpsを適用することができる。また、これら以外にも、ハイスピードカメラに適用される2000、10000fps等の高フレームレートを適用することもできる。 Further, the number of frame times is not limited to two, and may be defined according to the number of frames possessed by the video data. In addition, as a supplement, the frame times have been described as t0 and t1 in the above description, but the reciprocal of the time difference between the frame times t0 and t1 matches the frame rate. As the frame rate, 24, 30, 60, 120 fps, which are generally applied in video equipment, can be applied. In addition to these, a high frame rate such as 2000, 10000 fps, which is applied to a high-speed camera, can also be applied.

次に、図6を用いて、ユーザ定義データについて説明する。図6は、ユーザ定義データを示す模式図である。ユーザ定義データは、オブジェクトの動作状態の判別に必要とされる属性情報が定義されたデータ(判別情報)である。 Next, the user-defined data will be described with reference to FIG. FIG. 6 is a schematic diagram showing user-defined data. User-defined data is data (discrimination information) in which attribute information required for discriminating the operating state of an object is defined.

以下、図6(a)及び図6(b)の各図について説明する。図6(a)は、ユーザ定義データのデータ構造を示す模式図である。図6(a)において、ユーザ定義データクラス601は、1又は複数のオブジェクト動作状態クラス602を保持する構造を有する。オブジェクト動作状態クラス602は、1又は複数の状態属性情報クラス603を保持する構造を有する。また、オブジェクト動作状態クラス602は、オブジェクトの動作状態を識別する動作状態の名称(以下、状態名と称する)を保持する。状態属性情報クラス603は、状態属性情報に固有の状態属性値を保持する。このように、ユーザ定義データは、判別処理を実行する上で、オブジェクトの動作状態毎に階層化して記述される。 Hereinafter, each of FIGS. 6 (a) and 6 (b) will be described. FIG. 6A is a schematic diagram showing a data structure of user-defined data. In FIG. 6A, the user-defined data class 601 has a structure that holds one or more object operation state classes 602. The object operation state class 602 has a structure that holds one or more state attribute information classes 603. Further, the object operation state class 602 holds the name of the operation state (hereinafter, referred to as the state name) that identifies the operation state of the object. The state attribute information class 603 holds a state attribute value unique to the state attribute information. In this way, the user-defined data is described in a layered manner for each operating state of the object in executing the discrimination process.

図6(b)は、XML形式で記述したユーザ定義データを示す模式図である。図6(b)において、符号L604はユーザ定義データの開始、符号L605はオブジェクトの動作状態の1つである‘方向価値’の定義の開始を示している。ここで、方向価値とは、基準とするオブジェクトに対する所定のオブジェクトの変位を評価(判別)する上での指標のことである。また、符号L606は‘方向価値’の状態属性値の1つである“方向番号”を示している。 FIG. 6B is a schematic diagram showing user-defined data described in XML format. In FIG. 6B, the reference numeral L604 indicates the start of user-defined data, and the reference numeral L605 indicates the start of the definition of'direction value', which is one of the operating states of the object. Here, the directional value is an index for evaluating (discriminating) the displacement of a predetermined object with respect to the reference object. Further, the reference numeral L606 indicates a "direction number" which is one of the state attribute values of the "direction value".

なお、“方向番号”は、他の“方向価値”を導出する上で、識別するための識別番号である。ここでは“方向番号”として、“1”が設定されている例を示しており、“方向番号”の“1”は、図7を用いて後述するように、“ボール”と“第1の選手”との関係で方向価値を導出することを示している。また、上述のように、“方向番号”は、識別番号であることから、他の“方向価値”の“方向番号”と重複しないように“1”以外の値を設定(記述)することができる。具体的には、1以上の整数値を設定することができる。 The "direction number" is an identification number for identification in deriving another "direction value". Here, an example in which "1" is set as the "direction number" is shown, and the "1" of the "direction number" is a "ball" and a "first" as will be described later with reference to FIG. It shows that the direction value is derived in relation to the "player". Further, as described above, since the "direction number" is an identification number, it is possible to set (describe) a value other than "1" so as not to overlap with the "direction number" of another "direction value". it can. Specifically, an integer value of 1 or more can be set.

符号L607は、‘方向価値’の状態属性値の一つである“オブジェクト”であって、方向価値の基準とするオブジェクトを示す。図6(b)において、“オブジェクト”に、“ボール”が設定されていることから、ここでは、“ボール”に対する“第1の選手”の方向価値を導出する。なお、“オブジェクト”には、“ボール”以外に“選手”、“ゴール”等のオブジェクトを設定することができる。また、補足として、“オブジェクト”と、オブジェクトトラッキングデータに定義されているオブジェクトデータに記述されている属性情報が一致している場合、記述されたオブジェクトについての方向価値の算出を指定することができる。 Reference numeral L607 is an "object" which is one of the state attribute values of "direction value", and indicates an object as a reference of direction value. Since the "ball" is set in the "object" in FIG. 6B, here, the directional value of the "first player" with respect to the "ball" is derived. In addition to the "ball", objects such as "player" and "goal" can be set in the "object". In addition, as a supplement, when the "object" and the attribute information described in the object data defined in the object tracking data match, the calculation of the direction value for the described object can be specified. ..

符号L608は、‘方向価値’の状態属性値の1つである“表示設定”を示している。“表示設定”は、“方向価値”を表示させる際の表示方法(表示態様)に関する状態属性値である。なお、“表示設定”には、“通常表示”、“非表示”、“点滅表示”、“拡大表示”、“縮小表示”、“別オブジェクトデータ表示”、“別テクスチャ表示”等を指定することができる。 Reference numeral L608 indicates "display setting" which is one of the state attribute values of "direction value". The "display setting" is a state attribute value related to a display method (display mode) when displaying the "direction value". For "display setting", specify "normal display", "non-display", "blinking display", "enlarged display", "reduced display", "separate object data display", "different texture display", etc. be able to.

符号L609は、‘方向価値’の状態属性値の1つである“算出方式”を示している。“算出方式”は、複数で定義される“方向価値”を算出する方式である。図6(b)において、“算出方式”には、“第1基底”が設定されている。“算出方式”には、“第1基底”以外の“方向価値”の算出方式を指定することができる。具体的には、“特定オブジェクト方向+直交成分(即ち、“第1基底”で定義される方向に直交する方向)”等を指定することができる。なお、“第1基底”については、図7を用いて後述する。符号L610は、“方向価値”の定義の終了を示している。 Reference numeral L609 indicates a "calculation method" which is one of the state attribute values of "direction value". The "calculation method" is a method for calculating a "direction value" defined by a plurality of elements. In FIG. 6B, a “first basis” is set as the “calculation method”. As the "calculation method", a calculation method of "direction value" other than the "first basis" can be specified. Specifically, "specific object direction + orthogonal component (that is, a direction orthogonal to the direction defined by the" first basis ")" and the like can be specified. The "first basis" will be described later with reference to FIG. 7. Reference numeral L610 indicates the end of the definition of "direction value".

符号L611は、オブジェクトの動作状態の1つである‘物体追跡線’の定義の開始を示している。符号L612は、‘物体追跡線’の状態属性値の1つである“追跡対象”を示している。“追跡対象”には、“物体追跡線”を描画する特定のオブジェクトが指定される。図6(b)において、“追跡対象”には、特定のオブジェクトを示す“第1の選手”が指定されている。なお、“追跡対象”には、“第1の選手”以外の“第2の選手”、“ボール”等も指定することができる。 Reference numeral L611 indicates the start of the definition of the'object tracking line', which is one of the operating states of the object. Reference numeral L612 indicates a "tracking target" which is one of the state attribute values of the "object tracking line". In the "tracking target", a specific object for drawing the "object tracking line" is specified. In FIG. 6B, a “first player” indicating a specific object is designated as the “tracking target”. In addition, a "second player", a "ball", etc. other than the "first player" can also be specified as the "tracking target".

符号L613は、‘物体追跡線’の状態属性値の1つである“表示設定”を示している。“表示設定”は、“物体追跡線”を表示させる際の表示方法(表示態様)に関する状態属性値である。なお、“表示設定”には、“通常表示”、“非表示”、“点滅表示”、“拡大表示”、“縮小表示”、“別オブジェクトデータ表示”、“別テクスチャ表示”等を指定することができる。 Reference numeral L613 indicates a "display setting" which is one of the state attribute values of the "object tracking line". The "display setting" is a state attribute value related to a display method (display mode) when displaying the "object tracking line". For "display setting", specify "normal display", "non-display", "blinking display", "enlarged display", "reduced display", "separate object data display", "different texture display", etc. be able to.

符号L614は、‘物体追跡線’の状態属性値の1つである“追加属性”を示している。“追加属性”は、“物体追跡線”を表示させる際に適用される追加の状態属性値である。図6(b)において、“追加属性”には、”Y方向にずらす“が指定されている。ここで、”Y方向にずらす“は、ワールド座標系において、”追跡対象“で指定されたオブジェクトの物体追跡線の表示位置を、Y方向にずらすことを意味する。なお、“追加属性”には、”Y方向にずらす“以外に、”ずれなし“、”X方向にずらす“、”Z方向にずらす“等を指定することができる。 Reference numeral L614 indicates an "additional attribute" which is one of the state attribute values of the "object tracking line". The "additional attribute" is an additional state attribute value applied when displaying the "object tracking line". In FIG. 6B, "shift in the Y direction" is specified for the "additional attribute". Here, "shifting in the Y direction" means shifting the display position of the object tracking line of the object specified by "tracking target" in the Y direction in the world coordinate system. In addition to "shift in the Y direction", "no shift", "shift in the X direction", "shift in the Z direction", and the like can be specified for the "additional attribute".

符号L615は‘物体追跡線’の定義の終了、また、符号L616はユーザ定義データの終了を示している。なお、オブジェクトの動作状態の判別処理が実行できなかった場合、表示制御部305は、ユーザ定義データにオブジェクトの動作状態が記述されていても、動作することはない。また、図6(b)の符号L611、符号L612、符号L613、符号L614、符号L615の各行の記述内容については、本実施形態(実施形態1)ではなく、後述の実施形態2において説明する。 The reference numeral L615 indicates the end of the definition of the'object tracking line', and the reference numeral L616 indicates the end of the user-defined data. If the operation state determination process of the object cannot be executed, the display control unit 305 does not operate even if the operation state of the object is described in the user-defined data. Further, the description contents of the lines of reference numeral L611, reference numeral L612, reference numeral L613, reference numeral L614, and reference numeral L615 in FIG. 6B will be described in the second embodiment described later, not in the present embodiment (first embodiment).

次に、図7を用いて、オブジェクトの動作状態の判別処理について説明する。図7は、オブジェクトの動作状態の判別処理を示す模式図である。なお、本実施形態では、オブジェクトの動作状態のうち、‘方向価値’を判別する処理を実行するものとする。そのため、図7では、図4のS403におけるオブジェクトの動作状態の判別処理として、ユーザ定義データに‘方向価値’が設定されていることを識別した場合のオブジェクトの動作状態の判別処理を示すものとする。 Next, the process of determining the operating state of the object will be described with reference to FIG. 7. FIG. 7 is a schematic diagram showing a process of determining the operating state of an object. In this embodiment, it is assumed that the process of determining the'direction value'of the operating state of the object is executed. Therefore, FIG. 7 shows the process of determining the operating state of the object in S403 of FIG. 4 when it is identified that the'direction value'is set in the user-defined data. To do.

図7において、ワールド座標系におけるオブジェクトトラッキングデータの配置位置が示されている。なお、配置位置は、図5(b)のオブジェクトデータ523のワールド座標値から取得することができる。オブジェクト701は、フレーム時刻t0における図6(b)に示される符号L604の“方向番号”で指定されたオブジェクトである。オブジェクト702は、フレーム時刻t1における図6(b)に示される符号L604の“方向番号”で指定されたオブジェクトである。方向価値基準オブジェクト703は、フレーム時刻t0における図6(b)に示される符号L607の“オブジェクト”で指定されたオブジェクトである。 In FIG. 7, the arrangement position of the object tracking data in the world coordinate system is shown. The arrangement position can be obtained from the world coordinate values of the object data 523 of FIG. 5 (b). The object 701 is an object designated by the “direction number” of the reference numeral L604 shown in FIG. 6B at the frame time t0. The object 702 is an object designated by the “direction number” of the reference numeral L604 shown in FIG. 6B at the frame time t1. The direction value reference object 703 is an object designated by the “object” of the reference numeral L607 shown in FIG. 6 (b) at the frame time t0.

図4のS403におけるオブジェクトの動作状態の判別処理において、オブジェクトトラッキングデータと照合することで、オブジェクト701、オブジェクト702及び方向価値基準オブジェクト703が特定される。即ち、ここでは、オブジェクト701は“第1の選手”、オブジェクト702は“第1の選手”、方向価値基準オブジェクト703は“ボール”と特定される。 In the object operating state determination process in S403 of FIG. 4, the object 701, the object 702, and the direction value reference object 703 are specified by collating with the object tracking data. That is, here, the object 701 is specified as the "first player", the object 702 is specified as the "first player", and the direction value reference object 703 is specified as the "ball".

ここで、方向価値ベクトルaは、オブジェクト701と方向価値基準オブジェクト703により、下式(1)で示される。
a=OBJ703−OBJ701 ・・・(1)
Here, the direction value vector a is represented by the following equation (1) by the object 701 and the direction value reference object 703.
a = OBJ703-OBJ701 ... (1)

上式において、OBJ703は、方向価値基準オブジェクト703のワールド座標値の3次元ベクトルを示しており、OBJ701は、オブジェクト701のワールド座標値の3次元ベクトルを示している。また、フレーム時刻t0からt1の時間で、OBJ701が動いた動きベクトルbは、下式(2)で示される。
b=OBJ702−OBJ701 ・・・(2)
In the above equation, OBJ703 shows a three-dimensional vector of the world coordinate values of the direction value reference object 703, and OBJ701 shows a three-dimensional vector of the world coordinate values of the object 701. Further, the motion vector b in which the OBJ701 moves during the time from the frame time t0 to t1 is represented by the following equation (2).
b = OBJ702-OBJ701 ... (2)

上式において、OBJ702は、オブジェクト702のワールド座標値の3次元ベクトルを示している。そして、2つの3次元ベクトルaとbの内積は、下式(3)で示される。
a・b=||a||||b||cosθ ・・・(3)
In the above equation, OBJ702 shows a three-dimensional vector of the world coordinate values of the object 702. The inner product of the two three-dimensional vectors a and b is expressed by the following equation (3).
a ・ b = || a |||| b || cosθ ・ ・ ・ (3)

さらに、上式(3)に基づき、方向価値の強さ||b||は、下式(4)で表される。
||b||=a・b/( ||a|| cosθ) ・・・(4)
Further, based on the above equation (3), the strength of the directional value || b || is expressed by the following equation (4).
|| b || = a ・ b / (|| a || cosθ) ・ ・ ・ (4)

上式において、||a||は方向価値ベクトルの長さ、θは(θx, θy, θz)の3次元角度ベクトルである。また、方向価値の強さ||b||は、図7において、方向価値ベクトル704で示される。このように、方向価値ベクトルを算出することを、本実施形態において、“第1基底”として定義しており、方向価値ベクトルを算出することで、方向価値基準とするオブジェクトに対する変位(移動量)を判別することが可能である。 In the above equation, || a || is the length of the directional value vector, and θ is the three-dimensional angle vector of (θx, θy, θz). Further, the strength of the directional value || b || is indicated by the directional value vector 704 in FIG. 7. In this embodiment, the calculation of the direction value vector is defined as the "first basis", and by calculating the direction value vector, the displacement (movement amount) with respect to the object as the direction value reference is defined. Can be determined.

なお、算出される方向価値の強さ||b||を、オブジェクトの密度によって、補正してもよい。具体的には、下式(5)に示されるように、補正することができる。
||b||=C1・a・b/( ||a|| cosθ) ・・・(5)
The calculated directional value strength || b || may be corrected by the density of the objects. Specifically, it can be corrected as shown in the following equation (5).
|| b || = C1 ・ a ・ b / (|| a || cosθ) ・ ・ ・ (5)

上式(5)において、C1は、オブジェクトの密度係数であり、オブジェクト701と他のオブジェクトとの隣接状態に応じて設定される。例えば、ワールド座標系において、オブジェクト701と他のオブジェクト(不図示)の重心座標値の距離が一定未満の場合等に、C1の値を増加させる。 In the above equation (5), C1 is an object density coefficient, and is set according to the state of adjacency between the object 701 and another object. For example, in the world coordinate system, the value of C1 is increased when the distance between the object 701 and the center of gravity coordinate value of another object (not shown) is less than a certain value.

また、算出される方向価値の強さ||b||は、基準面からの距離によって、補正してもよい。具体的には、下式(6)に示されるように、補正することができる。
||b||=C2・a・b/( ||a|| cosθ) ・・・(6)
Further, the calculated strength of the directional value || b || may be corrected by the distance from the reference plane. Specifically, it can be corrected as shown in the following equation (6).
|| b || = C2 ・ a ・ b / (|| a || cosθ) ・ ・ ・ (6)

上式(6)において、C2は、定義した基準面からの距離係数である。例えば、オブジェクト701の重心座標値と基準面の距離が一定未満である場合等に、C2の値を増加させる。なお、本実施形態において、基準面として地面を適用する。 In the above equation (6), C2 is a distance coefficient from the defined reference plane. For example, when the distance between the coordinate value of the center of gravity of the object 701 and the reference plane is less than a certain value, the value of C2 is increased. In this embodiment, the ground is applied as a reference plane.

次に、図8を用いて、オブジェクトの表示状態について説明する。図8は、表示制御部305によりレンダリング処理が施されたオブジェクト、及びオブジェクトについての方向価値を示す模式図である。なお、レンダリング処理には、公知の方法を用いることができる。 Next, the display state of the object will be described with reference to FIG. FIG. 8 is a schematic diagram showing an object that has been rendered by the display control unit 305 and the direction value of the object. A known method can be used for the rendering process.

図8(a)は、フレーム時刻Fr01、カメラ視点view01におけるオブジェクトを示している。また、図8(a)では、座標軸800の方向としてx軸方向、y軸方向、z軸方向があり、x軸方向が図8(a)の長手方向、z軸方向が図8(a)の短手方向、y軸方向がx軸とz軸のいずれに対しても直交する方向で定義される。 FIG. 8A shows an object at the frame time Fr01 and the camera viewpoint view01. Further, in FIG. 8A, there are x-axis direction, y-axis direction, and z-axis direction as the direction of the coordinate axis 800, the x-axis direction is the longitudinal direction of FIG. 8A, and the z-axis direction is FIG. 8A. Is defined as a direction in which the lateral direction and the y-axis direction are orthogonal to both the x-axis and the z-axis.

図8(a)において、オブジェクトとして、選手801、選手802、選手803、ボール804、及びフィールド805が描画されている。また、図8(a)において、選手802に関する3D座標値807から3D座標値809への方向である方向価値ベクトル811も示されている。 In FIG. 8A, a player 801 and a player 802, a player 803, a ball 804, and a field 805 are drawn as objects. Further, in FIG. 8A, a direction value vector 811 which is a direction from the 3D coordinate value 807 to the 3D coordinate value 809 with respect to the player 802 is also shown.

図8(b)は、フレーム時刻Fr01、カメラ視点view02におけるオブジェクトを示している。即ち、図8(b)は、図8(a)で示されるシーンを、異なる視点(具体的には、選手812、選手813、選手814、ボール815、フィールド816の各オブジェクトを鳥瞰する視点)から観察した模式図である。また、これに関連して、図8(b)では、座標軸810の方向に関して、図面上、x軸方向は図8(a)と同じになるが、y軸方向とz軸方向は図8(a)と異なる。 FIG. 8B shows an object at the frame time Fr01 and the camera viewpoint view02. That is, FIG. 8B shows the scene shown in FIG. 8A from a different viewpoint (specifically, a bird's-eye view of each object of the player 812, the player 813, the player 814, the ball 815, and the field 816). It is a schematic diagram observed from. In relation to this, in FIG. 8B, the x-axis direction is the same as that in FIG. 8A in the drawing with respect to the direction of the coordinate axis 810, but the y-axis direction and the z-axis direction are FIG. 8 ( Different from a).

図8(b)には、選手812、選手813、選手814、ボール815、フィールド816の各オブジェクトに対応する、3D座標値817、3D座標値818、3D座標値819、3D座標値820、3D座標値821が示されている。また、図8(b)には、3D座標値818から3D座標値820への方向である方向価値ベクトル822が示されている。補足として、図8(a)と図8(b)における各オブジェクトの対応は、以下の通りである。選手801と選手812、選手802と選手813、選手803と選手814、ボール804とボール815、フィールド805とフィールド816が、各々、同一のオブジェクトである。 FIG. 8B shows 3D coordinate values 817, 3D coordinate values 818, 3D coordinate values 819, 3D coordinate values 820, and 3D corresponding to the respective objects of player 812, player 813, player 814, ball 815, and field 816. The coordinate value 821 is shown. Further, FIG. 8B shows a direction value vector 822 which is a direction from the 3D coordinate value 818 to the 3D coordinate value 820. As a supplement, the correspondence of each object in FIGS. 8 (a) and 8 (b) is as follows. Player 801 and player 812, player 802 and player 813, player 803 and player 814, ball 804 and ball 815, and field 805 and field 816 are the same objects, respectively.

図8(c)は、フレーム時刻Fr02、カメラ視点view01におけるオブジェクトを示している。即ち、図8(c)は、図8(a)に示されるフレームに対して、時間的に1フレーム分、遅延しており、選手及びボールは、各々、移動している。なお、図8(c)において、各々の座標軸(x軸、y軸、z軸)830の軸方向は、図8(a)に示される各々の座標軸800の軸方向と同じである。 FIG. 8C shows an object at the frame time Fr02 and the camera viewpoint view01. That is, FIG. 8C is delayed by one frame in time with respect to the frame shown in FIG. 8A, and the player and the ball are moving, respectively. In addition, in FIG. 8C, the axial direction of each coordinate axis (x-axis, y-axis, z-axis) 830 is the same as the axial direction of each coordinate axis 800 shown in FIG. 8A.

図8(c)には、選手831、選手832、選手833、ボール834、フィールド835の各オブジェクトに対応する、3D座標値836、3D座標値837、3D座標値838、3D座標値839、3D座標値840が示されている。また、図8(c)には、3D座標値837に対応する前フレーム(図8(a))の3D座標値807と方向価値の強さ841が示されている。なお、方向価値の強さ841は、矢印の長さにより示すようにしてもよいし、別途、生成したテクスチャに数値を描画してもよい。 In FIG. 8C, 3D coordinate value 836, 3D coordinate value 837, 3D coordinate value 838, 3D coordinate value 839, and 3D corresponding to each object of player 831, player 832, player 833, ball 834, and field 835 are shown. The coordinate value 840 is shown. Further, FIG. 8 (c) shows the 3D coordinate value 807 and the strength of the directional value 841 of the front frame (FIG. 8 (a)) corresponding to the 3D coordinate value 837. The strength of the directional value 841 may be indicated by the length of the arrow, or a numerical value may be separately drawn on the generated texture.

補足として、図8(a)と図8(c)における各オブジェクトの対応は、以下の通りである。選手801と選手831、選手802と選手832、選手803と選手833、ボール804とボール834、フィールド805とフィールド835が、各々、同一のオブジェクトである。以上、図8(即ち、図8(a)、図8(b)、及び図8(c))に示されるように、表示制御部305に入力されるオブジェクト、及び判別された方向価値を用いて、3Dワールド座標空間において、方向価値を描画することができる。 As a supplement, the correspondence of each object in FIGS. 8 (a) and 8 (c) is as follows. Player 801 and player 831, player 802 and player 832, player 803 and player 833, ball 804 and ball 834, and field 805 and field 835 are the same objects, respectively. As described above, as shown in FIG. 8 (that is, FIGS. 8 (a), 8 (b), and 8 (c)), the object input to the display control unit 305 and the determined directional value are used. The directional value can be drawn in the 3D world coordinate space.

図9は、表示制御部305によりレンダリング処理が施されたフレーム時刻Fr01におけるフレームを示している。なお、ここでは、参考のため、ワールド座標系上の3次元シーン931も示しており、ワールド座標系上の3次元シーン931には、図8(a)で示したカメラ視点におけるオブジェクトの各々が示されている。また、図9において、各々の座標軸932の方向は、図8(a)における各々の座標軸800の方向と同じである。 FIG. 9 shows a frame at the frame time Fr01 that has been rendered by the display control unit 305. For reference, a three-dimensional scene 931 on the world coordinate system is also shown here, and in the three-dimensional scene 931 on the world coordinate system, each of the objects at the camera viewpoint shown in FIG. 8A is shown. It is shown. Further, in FIG. 9, the direction of each coordinate axis 932 is the same as the direction of each coordinate axis 800 in FIG. 8A.

スクリーン座標933は、出力部202の有する機能(不図示)であるCGレンダラによって投影されたワールド座標系上の3次元シーン931の投影面である。仮想カメラ934は、スクリーン座標933の投影位置を示している。テクスチャ935には、判別部によって判別されたオブジェクトの動作状態である「”ボール”への移動:100」が描画されている。 The screen coordinates 933 are projection planes of the three-dimensional scene 931 on the world coordinate system projected by the CG renderer, which is a function (not shown) of the output unit 202. The virtual camera 934 shows the projection position of the screen coordinates 933. On the texture 935, "Move to" ball ": 100", which is the operating state of the object determined by the discriminating unit, is drawn.

出力部202は、CGレンダラにより、スクリーン座標933に、ワールド座標系上の3次元シーン931を描画する。これにより、オブジェクトの動作状態が重畳された映像シーンを、ユーザに提示することができる。また、出力部202は、CGレンダラにより、スクリーン座標933に、ワールド座標系上の3次元シーン931を描画した後に、別途、テクスチャ935を描画することもできる。別途、テクスチャ935を描画することで、幾何変換による歪みのない、オブジェクトの動作状態をユーザに提示することができる。 The output unit 202 draws the three-dimensional scene 931 on the world coordinate system on the screen coordinates 933 by the CG renderer. As a result, it is possible to present the user with a video scene in which the operating state of the object is superimposed. Further, the output unit 202 can also draw the texture 935 separately after drawing the three-dimensional scene 931 on the world coordinate system on the screen coordinates 933 by the CG renderer. By separately drawing the texture 935, it is possible to present to the user the operating state of the object without distortion due to geometric transformation.

以上、説明したように、本実施形態によれば、仮想視点画像において、オブジェクトの動作状態を判別することができる。具体的には、オブジェクトの動作状態の1つである‘方向価値’を判別し、その判別した‘方向価値’をテクスチャによって3次元シーンに重畳させて表示させることを可能とした。これにより、視聴者は、仮想視点画像を視聴すると同時に、オブジェクトの動作状態を認識することができる。 As described above, according to the present embodiment, it is possible to determine the operating state of the object in the virtual viewpoint image. Specifically, it is possible to discriminate the "direction value" which is one of the operating states of the object, and superimpose the discriminated "direction value" on the three-dimensional scene and display it. As a result, the viewer can recognize the operating state of the object at the same time as viewing the virtual viewpoint image.

(実施形態2)
本実施形態では、オブジェクトの動作状態における“追跡対象”の位置を判別して、“追跡対象”の位置を用いて物体追跡線(軌跡)の描画処理を実行する。なお、実施形態1と同様の構成については、その説明を省略する。
(Embodiment 2)
In the present embodiment, the position of the "tracking target" in the operating state of the object is determined, and the drawing process of the object tracking line (trajectory) is executed using the position of the "tracking target". The description of the same configuration as that of the first embodiment will be omitted.

本実施形態においても、上述の実施形態1と同様に、図2に示されるサーバ117を用いることができる。なお、サーバ117は、図1に示される仮想視点映像システムにおいて、ケーブル115と接続されている必要はなく、また、予めカメラ101からカメラ114により撮影された映像データはサーバ117に送信されているものとする。これにより、各カメラの撮影時刻と画像の表示時刻との関係を考慮することなく、画像処理時間をより多く使用した映像品位の高い仮想視点映像を生成することができる。 Also in this embodiment, the server 117 shown in FIG. 2 can be used as in the above-described first embodiment. The server 117 does not need to be connected to the cable 115 in the virtual viewpoint video system shown in FIG. 1, and the video data previously shot by the camera 114 from the camera 101 is transmitted to the server 117. It shall be. As a result, it is possible to generate a virtual viewpoint image with high image quality using a larger amount of image processing time without considering the relationship between the shooting time of each camera and the display time of the image.

次に、図10のフローチャートを用いて、画像処理装置における処理の手順について説明する。なお、ここでは、上述の実施形態1と同じ処理ステップについては、その説明を省略する。S402において入力されたユーザ定義データに図6の符号L611から符号L615に示されるオブジェクトの動作状態である‘物体追跡線’の定義を検出した場合に、S403において、オブジェクトの位置を用いた物体追跡線の描画処理を実行する。 Next, the procedure of processing in the image processing apparatus will be described with reference to the flowchart of FIG. Here, the description of the same processing step as that of the first embodiment will be omitted. When the definition of the'object tracking line'that is the operating state of the object shown by the reference numerals L611 to L615 in FIG. 6 is detected in the user-defined data input in S402, the object tracking using the position of the object is detected in S403. Executes the line drawing process.

S1004において、動画データを入力として受信する。なお、本実施形態において、動画データは、フレーム時刻毎に連続して記録された映像データであるとともに、視点位置が固定された仮想視点映像データであるものとする。S405において、表示制御部305は、表示データを出力する。 In S1004, the moving image data is received as an input. In the present embodiment, the moving image data is video data continuously recorded for each frame time, and is virtual viewpoint video data in which the viewpoint position is fixed. In S405, the display control unit 305 outputs display data.

物体追跡線の描画処理について説明する前に、先ず、図11を用いて、物体追跡線について説明する。図11は、物体追跡線を示す模式図である。図11では、表示制御部305によりレンダリング処理が施されたオブジェクト及び物体追跡線を示している。なお、レンダリング処理としては、公知の方法を用いることができる。 Before explaining the drawing process of the object tracking line, first, the object tracking line will be described with reference to FIG. FIG. 11 is a schematic view showing an object tracking line. FIG. 11 shows an object and an object tracking line that have been rendered by the display control unit 305. As the rendering process, a known method can be used.

図11において、図11(a)は、カメラ視点view01における、フレーム時刻Fr01、Fr02、Fr03、Fr04の各々のオブジェクトを示している。また、図11(b)は、カメラ視点view02における、フレーム時刻Fr01、Fr02、Fr03、Fr04の各々のオブジェクトを表している。 In FIG. 11, FIG. 11A shows objects at frame times Fr01, Fr02, Fr03, and Fr04 at the camera viewpoint view01. Further, FIG. 11B shows each object of the frame time Fr01, Fr02, Fr03, and Fr04 in the camera viewpoint view02.

図11(a)において、座標軸1100の方向は、x軸方向が図11(a)の長手方向、z軸方向が図11(a)の短手方向、y軸方向がx軸とz軸のいずれに対しても直交する方向で定義される。図11(a)において、オブジェクトとして、選手1101、選手1102、選手1103、選手1104、フィールド1105が描画されている。 In FIG. 11A, the x-axis direction is the longitudinal direction of FIG. 11A, the z-axis direction is the lateral direction of FIG. 11A, and the y-axis direction is the x-axis and the z-axis. It is defined in the direction orthogonal to both. In FIG. 11A, player 1101, player 1102, player 1103, player 1104, and field 1105 are drawn as objects.

図11(a)には、選手1101、選手1102、選手1103、選手1104、フィールド1105の各オブジェクトに対応する、3D座標値1106、3D座標値1107、3D座標値1108、3D座標値1109、3D座標値1110も示されている。なお、これらの3D座標値は、オブジェクトトラッキングデータから取得される。さらに、図11(a)には、物体追跡線(軌跡)1111が示されている。 In FIG. 11A, 3D coordinate values 1106, 3D coordinate values 1107, 3D coordinate values 1108, 3D coordinate values 1109, and 3D corresponding to the respective objects of player 1101, player 1102, player 1103, player 1104, and field 1105. Coordinate values 1110 are also shown. Note that these 3D coordinate values are acquired from the object tracking data. Further, FIG. 11A shows an object tracking line (trajectory) 1111.

ここで、図11(a)において、選手1101はフレーム時刻Fr01におけるオブジェクトであり、選手1102はフレーム時刻Fr02におけるオブジェクトである。また、選手1103はフレーム時刻Fr03におけるオブジェクトであり、選手1104はフレーム時刻Fr04におけるオブジェクトである。 Here, in FIG. 11A, the player 1101 is an object at the frame time Fr01, and the player 1102 is an object at the frame time Fr02. The player 1103 is an object at the frame time Fr03, and the player 1104 is an object at the frame time Fr04.

図11(b)は、図11(a)で示されるシーンを、異なる視点(具体的には、選手1121、選手1122、選手1123、選手1124、フィールド1125の各オブジェクトを鳥瞰する視点)から観察した模式図である。また、これに関連して、図11(b)では、座標軸1120の方向に関して、図面上、x軸方向は図11(a)と同じになるが、y軸方向とz軸方向は図11(a)と異なる。 FIG. 11B observes the scene shown in FIG. 11A from different viewpoints (specifically, a bird's-eye view of each object of player 1121, player 1122, player 1123, player 1124, and field 1125). It is a schematic diagram. In relation to this, in FIG. 11B, with respect to the direction of the coordinate axis 1120, the x-axis direction is the same as that in FIG. 11A, but the y-axis direction and the z-axis direction are shown in FIG. Different from a).

図11(b)には、選手1121、選手1122、選手1123、選手1124、フィールド1125の各オブジェクトに対応する、3D座標値1126、3D座標値1127、3D座標値1128、3D座標値1129、3D座標値1130も示されている。なお、これらの3D座標値は、オブジェクトトラッキングデータから取得される。さらに、図11(b)には、物体追跡線1131が示されている。 In FIG. 11B, 3D coordinate values 1126, 3D coordinate values 1127, 3D coordinate values 1128, 3D coordinate values 1129, and 3D corresponding to the respective objects of player 1121, player 1122, player 1123, player 1124, and field 1125. Coordinate values 1130 are also shown. Note that these 3D coordinate values are acquired from the object tracking data. Further, FIG. 11B shows an object tracking line 1131.

補足として、図11(a)と図11(b)における各オブジェクトの対応は、以下の通りである。選手1101と選手1121、選手1102と選手1122、選手1103と選手1123、選手1104と選手1124、フィールド1105とフィールド1125が、各々、同一のオブジェクトである。また、物体追跡線1131は、物体追跡線1111に対応している。 As a supplement, the correspondence of each object in FIGS. 11 (a) and 11 (b) is as follows. Player 1101 and player 1121, player 1102 and player 1122, player 1103 and player 1123, player 1104 and player 1124, and field 1105 and field 1125 are the same objects, respectively. Further, the object tracking line 1131 corresponds to the object tracking line 1111.

次に、図10のS403におけるオブジェクトの動作状態の判別処理について説明する。図10のS403におけるオブジェクトの動作状態の判別処理において、図6(b)の符号L612に示される属性情報値と図5(b)の属性情報とを照合することで、物体追跡線の描画対象とするオブジェクトを特定する。 Next, the process of determining the operating state of the object in S403 of FIG. 10 will be described. In the process of determining the operating state of the object in S403 of FIG. 10, the object tracking line is drawn by collating the attribute information value shown by the reference numeral L612 of FIG. 6B with the attribute information of FIG. 5B. Identify the object to be.

以下、図11の模式図を用いて、物体追跡線の描画処理について、具体的に説明する。図6(b)の符号L612に示される属性情報値が“第1の選手”であることを前提に、ここでは、オブジェクトトラッキングデータにおける、選手1101から選手1104に対応するオブジェクトデータの属性情報が“第1の選手”であるものとする。そして、この場合に、物体追跡線の描画対象とするオブジェクトが、選手1101から選手1104として特定される。 Hereinafter, the drawing process of the object tracking line will be specifically described with reference to the schematic diagram of FIG. Assuming that the attribute information value shown by the reference numeral L612 in FIG. 6B is the “first player”, here, the attribute information of the object data corresponding to the players 1101 to 1104 in the object tracking data is It shall be the "first player". Then, in this case, the object to be drawn on the object tracking line is specified as the player 1101 to the player 1104.

次に、物体追跡線を描画する対象オブジェクトに対応するオブジェクトデータからワールド座標値を取得する。フレーム時刻Fr01に対応するフレームIDを有するフレームデータに保持されるオブジェクトデータにおいて、属性情報が“第1の選手”であるオブジェクトデータを検出して、さらに、その検出したオブジェクトデータのワールド座標値を取得する。ここでは、オブジェクトデータのワールド座標値として(x1、y1、z1)を取得する。 Next, the world coordinate value is acquired from the object data corresponding to the target object on which the object tracking line is drawn. In the object data held in the frame data having the frame ID corresponding to the frame time Fr01, the object data whose attribute information is the "first player" is detected, and the world coordinate value of the detected object data is obtained. get. Here, (x1, y1, z1) is acquired as the world coordinate value of the object data.

同様に、フレーム時刻Fr02に対応するフレームIDを有するフレームデータに保持されるオブジェクトデータにおいて、属性情報が“第1の選手”であるオブジェクトデータを検出して、その検出したオブジェクトデータのワールド座標値を取得する。ここでは、オブジェクトデータのワールド座標値として(x2、y2、z2)を取得する。 Similarly, in the object data held in the frame data having the frame ID corresponding to the frame time Fr02, the object data whose attribute information is the "first player" is detected, and the world coordinate value of the detected object data is detected. To get. Here, (x2, y2, z2) is acquired as the world coordinate value of the object data.

次に、検出した2つのワールド座標値に対して、オフセット値を加算する。符号L614において“Y方向にずらす”と設定されていることから、下式(7)で示されるように、オフセット座標値を取得する。
xoffsetn = xn
yoffsetn = yn+offset ・・・(7)
zoffsetn = zn
(n = 1、2・・・m)
Next, the offset value is added to the two detected world coordinate values. Since it is set to "shift in the Y direction" in the symbol L614, the offset coordinate value is acquired as shown by the following equation (7).
xoffsetn = xn
youffset = yn + offset ・ ・ ・ (7)
zoffsetn = zinc
(N = 1, 2, ... m)

なお、”X方向にずらす“の場合、下式(8)で示されるように、オフセット座標値を取得する。
xoffsetn = xn+offset
yoffsetn = yn ・・・(8)
zoffsetn = zn
(n = 1、2・・・m)
In the case of "shifting in the X direction", the offset coordinate value is acquired as shown by the following equation (8).
xoffset = xn + offset
youffsetn = yn ・ ・ ・ (8)
zoffsetn = zinc
(N = 1, 2, ... m)

また、”Z方向にずらす“の場合、下式(9)で示されるように、オフセット座標値を取得する。
xoffsetn = xn
yoffsetn = yn ・・・(9)
zoffsetn = zn+offset
(n = 1、2・・・m)
Further, in the case of "shifting in the Z direction", the offset coordinate value is acquired as shown by the following equation (9).
xoffsetn = xn
youffsetn = yn ・ ・ ・ (9)
zoffset = zn + offset
(N = 1, 2, ... m)

次に、2つのオフセット座標値の一方から他方に線を描画する。なお、描画方法については、既存のCGレンダリング方法を適用すればよい。以上の処理により、物体追跡線1111及び物体追跡線1131を描画することができる。 Next, a line is drawn from one of the two offset coordinate values to the other. As for the drawing method, the existing CG rendering method may be applied. By the above processing, the object tracking line 1111 and the object tracking line 1131 can be drawn.

なお、図6(a)では、物体追跡線1111は、選手1101、選手1102等と描画位置が重なるため、ユーザにとって、物体追跡線の視認性が良くない。他方、図6(b)では、物体追跡線1131は、選手1121と選手1122と描画位置が重ならないため、ユーザにとって、物体追跡線の視認性が良い。このように、物体追跡線の描画位置をオブジェクトに対して、所定の方向にずらすことで、物体追跡線の視認性を向上させることができる。 In FIG. 6A, the object tracking line 1111 has a drawing position that overlaps with the player 1101, the player 1102, and the like, so that the visibility of the object tracking line is not good for the user. On the other hand, in FIG. 6B, since the drawing positions of the object tracking line 1131 do not overlap with the player 1121 and the player 1122, the visibility of the object tracking line is good for the user. In this way, the visibility of the object tracking line can be improved by shifting the drawing position of the object tracking line in a predetermined direction with respect to the object.

以上、説明したように、本実施形態によれば、仮想視点画像において、オブジェクトの動作状態を判別することができる。具体的には、オブジェクトの動作状態の1つである‘物体追跡線’を判別し、その判別した‘物体追跡線’をテクスチャによって3次元シーンに重畳させて表示させることを可能とした。これにより、視聴者は、仮想視点画像を視聴すると同時に、オブジェクトの動作状態を認識することができる。 As described above, according to the present embodiment, it is possible to determine the operating state of the object in the virtual viewpoint image. Specifically, it is possible to discriminate the "object tracking line", which is one of the operating states of the object, and superimpose the discriminated "object tracking line" on the three-dimensional scene by the texture to display it. As a result, the viewer can recognize the operating state of the object at the same time as viewing the virtual viewpoint image.

(その他の変形例)
上述の実施形態1において説明した方向価値の表示に関して、図7で説明したオブジェクト701に対して、別のオブジェクトの表示、別のテクスチャの表示をさらに行なうことができる。なお、これらの表示方法を設定する際には、図6(b)に示したユーザ定義データに表示方法に関する設定を記述すればよい。
(Other variants)
Regarding the display of the directional value described in the first embodiment, it is possible to further display another object and another texture with respect to the object 701 described with reference to FIG. 7. When setting these display methods, the settings related to the display method may be described in the user-defined data shown in FIG. 6 (b).

また、実施形態2において説明した物体追跡線は、描画の際に、非表示とする(即ち、表示させないようにする)ことや、物体追跡線を点滅させることもできる。なお、これらの表示方法を設定する際には、図6(b)に示したユーザ定義データに表示方法に関する設定を記述すればよい。 Further, the object tracking line described in the second embodiment can be hidden (that is, not displayed) or blinked at the time of drawing. When setting these display methods, the settings related to the display method may be described in the user-defined data shown in FIG. 6 (b).

その他、補足として、オブジェクトの個数に基づいて、オブジェクトの動作状態を判別することもできる。具体的には、例えば、ラグビーの場合、フルバック等のバックスを構成する選手全員の動きを平均化し、バックス全体としてのオブジェクトの動作状態を判別することもできる。 In addition, as a supplement, the operating state of an object can be determined based on the number of objects. Specifically, for example, in the case of rugby, it is possible to average the movements of all the players constituting the bucks such as full backs and determine the operating state of the object as the bucks as a whole.

本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

301 第1入力部
302 第2入力部
303 第3入力部
304 判別部
305 表示制御部
301 1st input unit 302 2nd input unit 303 3rd input unit 304 Discrimination unit 305 Display control unit

Claims (16)

仮想視点に関する情報に基づいて仮想視点画像を生成する画像処理装置であって、
オブジェクトのトラッキングデータを取得する第1の取得手段と、
前記オブジェクトの動作状態を判別するための判別情報を取得する第2の取得手段と、
前記判別情報と前記トラッキングデータとに基づいて、前記オブジェクトの動作状態を判別する判別手段と、
前記オブジェクトの3次元モデルのデータを取得する第3の取得手段と、
所定の表示態様により、前記オブジェクトの3次元モデルのデータに基づく前記仮想視点画像と、前記判別された前記オブジェクトの動作状態とを表示させる表示制御手段と
を備えることを特徴とする画像処理装置。
An image processing device that generates a virtual viewpoint image based on information about the virtual viewpoint.
The first acquisition method for acquiring the tracking data of the object,
A second acquisition means for acquiring discrimination information for discriminating the operating state of the object, and
A discriminating means for discriminating the operating state of the object based on the discriminating information and the tracking data, and
A third acquisition means for acquiring data of the three-dimensional model of the object, and
An image processing apparatus comprising: a display control means for displaying a virtual viewpoint image based on data of a three-dimensional model of the object and a determined operating state of the object according to a predetermined display mode.
前記判別手段は、少なくとも、前記オブジェクトの位置を用いて、前記オブジェクトの動作状態を判別することを特徴とする請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the determination means determines the operating state of the object by using at least the position of the object. 前記判別手段は、さらに、前記オブジェクトの密度、所定の基準面からの前記オブジェクトの距離、前記オブジェクトの時間的な変化を用いて、前記オブジェクトの動作状態を判別することを特徴とする請求項2に記載の画像処理装置。 2. The discriminating means is further characterized in that the operating state of the object is discriminated by using the density of the object, the distance of the object from a predetermined reference plane, and the temporal change of the object. The image processing apparatus according to. 前記判別情報には、前記オブジェクトの動作状態の属性を示す状態属性情報が定義され、
前記状態属性情報には、当該状態属性情報に固有の状態属性値が定義されていることを特徴とする請求項1から3のいずれか1項に記載の画像処理装置。
In the discrimination information, state attribute information indicating the attribute of the operating state of the object is defined.
The image processing apparatus according to any one of claims 1 to 3, wherein a state attribute value unique to the state attribute information is defined in the state attribute information.
前記表示制御手段は、前記状態属性情報に定義される固有の状態属性値のうち、所定の状態属性値に基づいて設定された前記所定の表示態様を用いて、前記オブジェクトの動作状態を表示させることを特徴とする請求項4に記載の画像処理装置。 The display control means displays the operating state of the object by using the predetermined display mode set based on the predetermined state attribute value among the unique state attribute values defined in the state attribute information. The image processing apparatus according to claim 4. 前記表示制御手段は、前記所定の表示態様として、少なくとも、通常表示、点滅表示、拡大表示、縮小表示のいずれか1つを用いて、前記オブジェクトの動作状態を表示させることを特徴とする請求項5に記載の画像処理装置。 The display control means is characterized in that the operating state of the object is displayed by using at least one of a normal display, a blinking display, an enlarged display, and a reduced display as the predetermined display mode. The image processing apparatus according to 5. 前記判別手段は、前記状態属性情報に定義される固有の状態属性値のうち、所定の状態属性値に基づいて、判別の対象とするオブジェクトを特定することを特徴とする請求項4から6のいずれか1項に記載の画像処理装置。 The discriminating means according to claims 4 to 6, wherein the discriminating means identifies an object to be discriminated based on a predetermined state attribute value among the unique state attribute values defined in the state attribute information. The image processing apparatus according to any one item. 前記判別手段は、前記オブジェクトの動作状態として、前記オブジェクトの変位を判別することを特徴とする請求項7に記載の画像処理装置。 The image processing apparatus according to claim 7, wherein the determination means determines the displacement of the object as an operating state of the object. 前記判別手段は、前記判別の対象とする第1のオブジェクトの動作状態として、前記第1のオブジェクトから第2のオブジェクトへの方向における前記第1のオブジェクトの時間的な位置の変化に基づいて、前記第2のオブジェクトに対する前記第1のオブジェクトの変位を判別することを特徴とする請求項8に記載の画像処理装置。 The discriminating means determines, as an operating state of the first object to be discriminated, based on a change in the temporal position of the first object in the direction from the first object to the second object. The image processing apparatus according to claim 8, wherein the displacement of the first object with respect to the second object is determined. 前記判別手段は、前記判別の対象とするオブジェクトの時間的な位置の変化に基づいて、当該オブジェクトの軌跡を判別することを特徴とする請求項7に記載の画像処理装置。 The image processing apparatus according to claim 7, wherein the discriminating means discriminates a locus of the object based on a change in the temporal position of the object to be discriminated. 前記表示制御手段は、前記判別の対象とするオブジェクトの軌跡を、当該オブジェクトから所定の方向にずらして表示させることを特徴とする請求項10に記載の画像処理装置。 The image processing device according to claim 10, wherein the display control means shifts the locus of the object to be discriminated from the object in a predetermined direction and displays the locus of the object. 前記表示制御手段は、前記オブジェクトに、前記判別された前記オブジェクトの動作状態を重畳して表示させることを特徴とする請求項1から11のいずれか1項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 11, wherein the display control means superimposes and displays the operation state of the determined object on the object. 前記トラッキングデータには、前記3次元モデルのデータを取得した時刻に対応するフレームデータが定義されており、
前記フレームデータには、前記オブジェクトを識別するオブジェクトデータが定義されており、
前記オブジェクトデータには、前記オブジェクトを識別する識別情報、ワールド座標値、前記オブジェクトの属性情報が定義されることを特徴とする請求項1から12のいずれか1項に記載の画像処理装置。
In the tracking data, frame data corresponding to the time when the data of the three-dimensional model is acquired is defined.
Object data that identifies the object is defined in the frame data, and the object data is defined.
The image processing apparatus according to any one of claims 1 to 12, wherein identification information for identifying the object, world coordinate values, and attribute information of the object are defined in the object data.
前記3次元モデルのデータは、前記オブジェクトの形状を示す形状データ、及び前記オブジェクトのテクスチャを示すテクスチャデータを含むことを特徴とする請求項1から13のいずれか1項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 13, wherein the data of the three-dimensional model includes shape data indicating the shape of the object and texture data indicating the texture of the object. 仮想視点に関する情報に基づいて仮想視点画像を生成する画像処理方法であって、
オブジェクトのトラッキングデータを取得する第1の取得ステップと、
前記オブジェクトの動作状態を判別するための判別情報を取得する第2の取得ステップと、
前記判別情報と前記トラッキングデータとに基づいて、前記オブジェクトの動作状態を判別する判別ステップと、
前記オブジェクトの3次元モデルのデータを取得する第3の取得ステップと、
所定の表示態様により、前記オブジェクトの3次元モデルのデータに基づく前記仮想視点画像と、前記判別された前記オブジェクトの動作状態とを表示させる表示制御ステップと
を含むことを特徴とする画像処理方法。
An image processing method that generates a virtual viewpoint image based on information about the virtual viewpoint.
The first acquisition step to acquire the tracking data of the object,
A second acquisition step of acquiring determination information for determining the operating state of the object, and
A discrimination step for discriminating the operating state of the object based on the discrimination information and the tracking data, and
The third acquisition step of acquiring the data of the three-dimensional model of the object, and
An image processing method comprising a display control step for displaying the virtual viewpoint image based on the data of the three-dimensional model of the object and the operation state of the determined object according to a predetermined display mode.
コンピュータを、請求項1から14のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。 A program for causing a computer to function as each means of the image processing apparatus according to any one of claims 1 to 14.
JP2019129208A 2019-07-11 2019-07-11 Image processing apparatus, image processing method, and program Pending JP2021015404A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019129208A JP2021015404A (en) 2019-07-11 2019-07-11 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019129208A JP2021015404A (en) 2019-07-11 2019-07-11 Image processing apparatus, image processing method, and program

Publications (1)

Publication Number Publication Date
JP2021015404A true JP2021015404A (en) 2021-02-12

Family

ID=74531469

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019129208A Pending JP2021015404A (en) 2019-07-11 2019-07-11 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP2021015404A (en)

Similar Documents

Publication Publication Date Title
JP6950013B2 (en) Image processing equipment, image processing methods and programs
US10705678B2 (en) Image processing apparatus, image processing method, and storage medium for generating a virtual viewpoint image
US11750786B2 (en) Providing apparatus, providing method and computer readable storage medium for performing processing relating to a virtual viewpoint image
US7843470B2 (en) System, image processing apparatus, and information processing method
US11086395B2 (en) Image processing apparatus, image processing method, and storage medium
JP6407460B1 (en) Image processing apparatus, image processing method, and program
JP3857988B2 (en) Stereoscopic image processing method and apparatus
JP6938123B2 (en) Display control device, display control method and program
CN110574075A (en) System, method, and program for generating virtual viewpoint image
JP7164968B2 (en) IMAGE PROCESSING DEVICE, CONTROL METHOD AND PROGRAM OF IMAGE PROCESSING DEVICE
TWI531212B (en) System and method of rendering stereoscopic images
JP7459870B2 (en) Image processing device, image processing method, and program
KR20210032549A (en) Image processing apparatus, image processing method, and computer program
WO2020166376A1 (en) Image processing device, image processing method, and program
US20220036644A1 (en) Image processing apparatus, image processing method, and program
JP4118146B2 (en) Stereoscopic image processing device
US20230353717A1 (en) Image processing system, image processing method, and storage medium
JP7387286B2 (en) Information processing device, information processing method, and program
JP2022016929A (en) Information processing device, information processing method, and program
US11847735B2 (en) Information processing apparatus, information processing method, and recording medium
JP2021015404A (en) Image processing apparatus, image processing method, and program
EP3716217A1 (en) Techniques for detection of real-time occlusion
US20240037843A1 (en) Image processing apparatus, image processing system, image processing method, and storage medium
JP7378960B2 (en) Image processing device, image processing system, image generation method, and program
WO2023145571A1 (en) Information processing device, information processing method, data structure, and program