JP2019179459A - Estimation processing device, estimation model generation device, estimation model, estimation method, and program - Google Patents

Estimation processing device, estimation model generation device, estimation model, estimation method, and program Download PDF

Info

Publication number
JP2019179459A
JP2019179459A JP2018069194A JP2018069194A JP2019179459A JP 2019179459 A JP2019179459 A JP 2019179459A JP 2018069194 A JP2018069194 A JP 2018069194A JP 2018069194 A JP2018069194 A JP 2018069194A JP 2019179459 A JP2019179459 A JP 2019179459A
Authority
JP
Japan
Prior art keywords
estimation
time point
data
model
player
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018069194A
Other languages
Japanese (ja)
Inventor
山 宏 丸
Hiroshi Maruyama
山 宏 丸
戸 将 平 比
Shohei Hido
戸 将 平 比
尾 大 地 鈴
Daichi SUZUO
尾 大 地 鈴
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Preferred Networks Inc
Original Assignee
Preferred Networks Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Preferred Networks Inc filed Critical Preferred Networks Inc
Priority to JP2018069194A priority Critical patent/JP2019179459A/en
Priority to PCT/JP2019/011871 priority patent/WO2019188714A1/en
Publication of JP2019179459A publication Critical patent/JP2019179459A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

To provide a device that estimates a game situation after a certain time point from positions of players at the certain time point.SOLUTION: An estimation processing device which is an embodiment of the present invention includes a storage unit and an estimation unit. The storage unit stores an estimation model that outputs estimation data related to a game situation of a sport. The estimation unit inputs first information on presence of players in each section of a game field at a first time point of the sport into the estimation model and thereby obtains estimation data related to a game situation of the sport after the first time point.SELECTED DRAWING: Figure 1

Description

本発明は、推定処理装置、推定モデル生成装置、推定モデル、推定方法およびプログラムに関する。   The present invention relates to an estimation processing device, an estimation model generation device, an estimation model, an estimation method, and a program.

情報処理技術の発達に伴い、スポーツの試合中の選手の位置および動きを捉えることが可能となってきている。例えば、航法衛星による測位、または複数のカメラからの画像を解析することにより、選手の移動軌跡、走行距離などが算出されている。これらの情報は、選手の特徴、能力などの分析などに利用されている。   With the development of information processing technology, it has become possible to capture the position and movement of players during sports matches. For example, a player's movement trajectory, travel distance, and the like are calculated by positioning using a navigation satellite or analyzing images from a plurality of cameras. These pieces of information are used for analysis of player characteristics and abilities.

一方、サッカー、ラクビーといった、各選手が自由に移動するスポーツにおいては、各選手の位置自体が試合状況に影響を与える。例えば、直接にはボールに関わっていない選手(味方、敵に関わらず)であっても、その選手とボールホルダーとの位置関係により、ボールホルダーのプレーが変化する。ゆえに、試合状況およびチームを分析する際には、各選手の位置およびその変動(つまり選手の動き)に基づき分析が行われるべきである。しかし、分析手法、評価基準などが確立されておらず、試合中の各時点における各選手の位置を詳細に捉えることができるにも関わらず、特定のプレーヤーまたは特定のプレー場面などにフォーカスして分析が行われている。   On the other hand, in sports in which each player moves freely, such as soccer and racby, the position of each player affects the game situation. For example, even a player who is not directly involved in the ball (regardless of friend or enemy), the play of the ball holder changes depending on the positional relationship between the player and the ball holder. Therefore, when analyzing the game situation and the team, the analysis should be performed based on the position of each player and its variation (that is, the movement of the player). However, although analysis methods, evaluation criteria, etc. have not been established and the position of each player at each point in the game can be captured in detail, the focus is on a specific player or a specific play scene. Analysis is being performed.

特開2015−70503号公報Japanese Patent Laying-Open No. 2015-70503 米国特許出願公開第2017/0165570号明細書US Patent Application Publication No. 2017/0165570

ある時点における選手の位置から、当該時点以降の試合状況を推定する装置を提供する。   Provided is a device for estimating a game situation after a certain time from the position of a player at a certain time.

本発明の一実施形態である推定処理装置は、記憶部と、推定部と、を備える。記憶部は、スポーツの試合状況に関する推定データを出力する推定モデルを記憶する。推定部は、スポーツの第1時点における、試合場の各区画での選手の存在に関する第1情報を、前記推定モデルへ入力することにより、前記第1時点以降の前記スポーツの試合状況に関する推定データを得る。   An estimation processing apparatus according to an embodiment of the present invention includes a storage unit and an estimation unit. A memory | storage part memorize | stores the estimation model which outputs the estimation data regarding the game situation of a sport. The estimation unit inputs first information regarding the presence of players in each section of the game field at the first time point of the sport to the estimation model, thereby estimating data regarding the game situation of the sport after the first time point. Get.

本発明の一実施形態に係る推定システムの一例を示すブロック図。The block diagram which shows an example of the estimation system which concerns on one Embodiment of this invention. ビットマップを説明する図。The figure explaining a bitmap. 推定データの取得について説明する図。The figure explaining acquisition of estimated data. 推定の結果の一例について示す図。The figure shown about an example of the result of estimation. 推定の結果の他の一例について示す図The figure shown about another example of the result of estimation 本発明の一実施形態に係る推定システムの処理の概略フローチャート。The schematic flowchart of the process of the estimation system which concerns on one Embodiment of this invention. 本発明の一実施形態に係る推定モデル生成装置の処理の概略フローチャート。The schematic flowchart of the process of the estimation model production | generation apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係る推定処理装置の処理の概略フローチャート。The schematic flowchart of a process of the estimation processing apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態におけるハードウェア構成の一例を示すブロック図。The block diagram which shows an example of the hardware constitutions in one Embodiment of this invention.

以下、図面を参照しながら、本発明の実施形態について説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

(本発明の一実施形態)
図1は、本発明の一実施形態に係る推定システムの一例を示すブロック図である。図1に示された推定システム1は、位置データ提供装置11と、イベントデータ提供装置12と、属性データ提供装置13と、推定モデル生成装置14と、推定用データ提供装置15と、推定処理装置16と、を備える。推定モデル生成装置14は、訓練用ビットマップ生成部141と、教師信号決定部142と、訓練データ提供部(記憶部)143と、推定モデル生成部(学習部)144と、を備える。推定処理装置16は、推定モデル記憶部161と、推定用ビットマップ生成部162と、推定部163と、推定結果処理部(評価部)164と、を備える。
(One embodiment of the present invention)
FIG. 1 is a block diagram illustrating an example of an estimation system according to an embodiment of the present invention. The estimation system 1 shown in FIG. 1 includes a position data providing device 11, an event data providing device 12, an attribute data providing device 13, an estimated model generating device 14, an estimation data providing device 15, and an estimation processing device. 16. The estimation model generation device 14 includes a training bitmap generation unit 141, a teacher signal determination unit 142, a training data provision unit (storage unit) 143, and an estimation model generation unit (learning unit) 144. The estimation processing device 16 includes an estimation model storage unit 161, an estimation bitmap generation unit 162, an estimation unit 163, and an estimation result processing unit (evaluation unit) 164.

本発明の一実施形態に係る推定システム1は、スポーツを対象に、試合中のある時点における選手の位置に基づき、当該時点以降(当該時点または当該時点よりも後)の試合状況に関する推定を行うシステムである。当該推定結果により、当該時点における選手の位置の優劣を判断することができ、試合およびチームの分析に活用することができる。   The estimation system 1 which concerns on one Embodiment of this invention makes an estimation regarding the game situation after the said time (after the said time or the said time) based on the position of the player at a certain time in the game for sports. System. Based on the estimation result, it is possible to determine the superiority or inferiority of the position of the player at the time point, which can be utilized for the analysis of the game and the team.

当該推定には、推定モデルが用いられる。推定モデルの生成も推定システム1により行われる。具体的には、試合中のある時点における各選手の位置に関するデータと、当該時点における教師信号と、に基づく教師あり学習により、推定モデルは生成される。教師信号は、当該時点以降の試合状況に関するものとしておく。こうして、学習完了後に、当該推定モデルに対し、試合中のある時点における選手の各位置に関するデータが入力されることにより、当該時点以降の試合状況に関する推定データが得られる。推定の詳細は、各装置および各構成要素とともに後述する。   An estimation model is used for the estimation. The estimation system 1 also generates an estimation model. Specifically, the estimation model is generated by supervised learning based on data regarding the position of each player at a certain point in the game and a teacher signal at that point. The teacher signal is related to the game situation after that time. In this way, after learning is completed, data related to each position of the player at a certain point in the game is input to the estimated model, so that estimated data regarding the game situation after the time is obtained. Details of the estimation will be described later together with each device and each component.

推定モデルにより推定される試合状況は、各チームの選手の位置でもよいし、ボールなどの選手以外の移動するオブジェクトの位置でもよい。あるいは、所定のイベントが発生することが推定されてもよい。また、所定のイベントが発生する確率が推定データとして示されてもよい。選手の各位置に関するデータからイベント発生確率のような数値を得ることができれば、位置関係などを定量化することができる。イベントは、特に限定されるものではなく、例えばスポーツがサッカーである場合、ゴール、シュート、所定エリアへの選手の進入、ファウルなどが考えられる。また、いくつかのイベントをセットにし、当該セットのいずれかが発生する確率としてもよい。また、試合に出場しているいずれかのチームを基準に、これらのイベントをさらに分類してもよい。例えば、ゴールは、基準としたチームの得点または失点に分けてもよい。   The game situation estimated by the estimation model may be the position of a player of each team or the position of a moving object other than the player, such as a ball. Alternatively, it may be estimated that a predetermined event occurs. In addition, the probability that a predetermined event occurs may be indicated as estimated data. If a numerical value such as the event occurrence probability can be obtained from the data regarding each position of the player, the positional relationship and the like can be quantified. The event is not particularly limited. For example, when the sport is soccer, a goal, a shot, a player entering a predetermined area, a foul, and the like are conceivable. Alternatively, several events may be set, and the probability of occurrence of any of the sets may be set. These events may be further classified based on any team participating in the game. For example, the goal may be divided into a score or a goal score of the team as a reference.

なお、本説明では、スポーツとして主にサッカーを例に説明を行うが、対象のスポーツがサッカーに限定されるものではない。対象としたスポーツが異なれば用いられる言葉も異なるため、本説明において用いられる用語は、対象とするスポーツに応じて読み替えられるべきである。例えば、サッカーにおけるボールは、アイスホッケーにおいてはパックに該当する。   In this description, soccer is mainly described as an example of a sport, but the target sport is not limited to soccer. Since the words used in different sports are different, the terms used in this description should be read according to the target sports. For example, a ball in soccer corresponds to a puck in ice hockey.

また、選手は人ではなく、ロボットなどの機械でもよい。   The player may be a machine such as a robot, not a person.

なお、上記では、推定モデルの生成と、推定モデルを用いた推定と、に必要と思われる主な装置および構成要素を記載しているが、その他の装置および構成要素が含まれていてもよい。また、装置および構成要素が細分化されていてもよいし、一つにまとめられていてもよい。また、各装置は、通信ネットワークを介したデータの送受が可能であり、各装置の入力および出力に対応する構成要素(つまり、入力部および出力部)は、省略されている。また、装置および構成要素による処理が省略される場合には、当該装置および構成要素も省略されてよい。   In the above, the main devices and components that are considered necessary for generation of the estimation model and estimation using the estimation model are described, but other devices and components may be included. . Moreover, the apparatus and the component may be subdivided and may be put together. Each device can transmit and receive data via a communication network, and components corresponding to the input and output of each device (that is, the input unit and the output unit) are omitted. Further, when processing by the device and the component is omitted, the device and the component may be omitted.

例えば、図1の例では、推定モデルの生成と、推定モデルを用いた推定とが、異なる装置で実施されることを想定し、推定モデルの生成を行う推定モデル生成装置14と、推定モデルを用いて推定を行う推定処理装置16が示されている。しかし、推定モデル生成装置14および推定処理装置16が、同一の装置であってもよい。   For example, in the example of FIG. 1, assuming that the generation of the estimation model and the estimation using the estimation model are performed by different apparatuses, the estimation model generation device 14 that generates the estimation model, An estimation processing device 16 that performs estimation by using it is shown. However, the estimated model generation device 14 and the estimation processing device 16 may be the same device.

各装置について説明する。   Each device will be described.

位置データ提供装置11は、試合中のある時点における各選手の位置を示す位置データを推定モデル生成装置14に提供する。当該位置データは、推定モデルの生成に用いられる。なお、位置データは、航法衛星による測位などにより予め生成されているものとする。   The position data providing apparatus 11 provides position data indicating the position of each player at a certain point in the game to the estimated model generating apparatus 14. The position data is used for generating an estimation model. It is assumed that the position data is generated in advance by positioning with a navigation satellite.

なお、スポーツでは、試合が一時停止された状態であるアウトオブプレーと、試合が続行されている状態であるインプレーと、がある。アウトオブプレー中では、選手が水を飲むために試合場外に出るといった、試合に関係ない動きをする。そのため、アウトオブプレー中の位置は、推定モデルの生成には不要である。ゆえに、位置データ提供装置11から提供される位置データには、アウトオブプレー中の位置データが予め取り除かれているか、アウトオブプレー中の位置データを取り除くために、アウトオブプレーと判別可能なフラグを予め位置データに付与しておくことが好ましい。   In sports, there are out-of-play where the game is paused and in-play where the game is continuing. During out-of-play, players move out of the field to drink water, making movements unrelated to the game. Therefore, the position in out-of-play is not necessary for generating the estimation model. Therefore, in the position data provided from the position data providing device 11, the position data in the out-of-play is removed in advance, or a flag that can be distinguished from the out-of-play in order to remove the position data in the out-of-play Is preferably added to the position data in advance.

なお、ボールなどの選手以外の移動するオブジェクトの位置を推定する場合は、当該オブジェクトの位置データが位置データ提供装置11から提供されてもよい。なお、以降、単にオブジェクトと記載されていた場合は、選手以外の移動するオブジェクトを意味する。   When estimating the position of a moving object other than a player such as a ball, position data of the object may be provided from the position data providing device 11. In the following description, when an object is simply described, it means a moving object other than a player.

イベントデータ提供装置12は、イベントデータを推定モデル生成装置14に送信する。イベントデータには、推定に対応する所定のイベントが発生した時点が示されている。なお、教師信号の決定にイベントデータを用いない場合は、推定モデル生成装置14はイベントデータを受信しなくともよい。   The event data providing device 12 transmits the event data to the estimated model generating device 14. The event data indicates the time when a predetermined event corresponding to the estimation occurs. Note that if event data is not used to determine the teacher signal, the estimation model generation device 14 may not receive the event data.

属性データ提供装置13は、試合に関する属性を示す属性データを推定モデル生成装置14に提供する。属性データは、当該属性が一致するチームだけを学習して、所定の属性に特化した推定モデルを生成するために用いられる。なお、属性に特化した推定モデルを生成しない場合は、推定モデル生成装置14は属性データを受信しなくともよい。   The attribute data providing device 13 provides attribute data indicating attributes relating to the game to the estimated model generating device 14. The attribute data is used to learn only teams with the same attribute and generate an estimation model specialized for a predetermined attribute. Note that when the estimation model specialized for the attribute is not generated, the estimation model generation device 14 does not need to receive the attribute data.

属性は、特に限られるものではない。例えば、名称、拠点、所属リーグといった、試合に出場しているチーム固有のものでもよい。あるいは、天候、ピッチコンディション(芝、土など)、チームのフォーメーション(選手配置の分類)、試合場がホームか否か、試合出場選手の身長といった試合ごとに変動するものでもよい。例えば、出場選手全員の年収が所定値以上であることを示す識別子を属性データに含めておく。そして、当該識別子を有するチームだけのデータを用いて学習を行うことにより、年収が所定値以上であるチームにおける、年収が所定範囲内である選手の平均的な動きに特化した推定モデルを生成することも考えられる。この推定モデルを用いることにより、選手の年収および動きの間に関連性があるかどうかを調べることもできる。   The attribute is not particularly limited. For example, it may be specific to the team participating in the game, such as name, base, and league. Alternatively, it may vary for each game such as weather, pitch condition (turf, soil, etc.), team formation (player placement classification), whether or not the game field is home, and the height of the game player. For example, an identifier indicating that the annual income of all participating players is equal to or greater than a predetermined value is included in the attribute data. Then, by performing learning using only data of the team having the identifier, an estimation model specialized for the average movement of the players whose annual income is within a predetermined range in a team whose annual income is equal to or greater than a predetermined value is generated. It is also possible to do. By using this estimation model, it is also possible to examine whether or not there is a relationship between the player's annual income and movement.

推定モデル生成装置14は、受信した各データに基づき、教師あり学習を行い、推定モデルを生成する。   The estimation model generation device 14 performs supervised learning based on each received data and generates an estimation model.

訓練用ビットマップ生成部141は、推定モデルの学習に用いられる、試合場の各区画での選手の存在に関する情報を生成する。具体的には、位置データ提供装置11からの位置データに基づき、ビットマップを生成する。ビットマップは、試合中のある時点における選手位置を、試合場の各区画を用いて表したデータである。   The training bitmap generation unit 141 generates information regarding the presence of players in each section of the game field, which is used for learning the estimation model. Specifically, a bitmap is generated based on the position data from the position data providing device 11. The bit map is data representing the player position at a certain point in the game using each section of the game field.

図2は、ビットマップを説明する図である。図2の例では、平面にて示された試合場を格子状に区切ることにより、区画を決定している。以降、当該区画をセルと記載する。また、図2のビットマップは、2次元のビットマップである。セルの大きさは、処理負荷、推定精度などを考慮して、予め定められていることを想定するが、推定モデル生成装置14に入力された指定値に応じて、訓練用ビットマップ生成部141が変更してもよい。また、対象とするスポーツが指定されて、当該指定に基づきセルの大きさが変更されてもよい。また、図2に示すように、試合場は、選手が移動可能な範囲よりも外側の部分を含んでもよい。例えば、スポーツでは、一般的に、境界線により囲まれた範囲内で試合が行われるが、試合場は、当該境界線を端とせずに、当該範囲を内包してよい。つまり、ビットマップも当該範囲を内包してよい。   FIG. 2 is a diagram for explaining a bitmap. In the example of FIG. 2, the division is determined by dividing the game field indicated by the plane into a lattice shape. Hereinafter, the section is referred to as a cell. The bitmap in FIG. 2 is a two-dimensional bitmap. It is assumed that the cell size is determined in advance in consideration of processing load, estimation accuracy, and the like, but according to the specified value input to the estimation model generation device 14, the training bitmap generation unit 141 is used. May change. In addition, a target sport may be specified, and the cell size may be changed based on the specification. Further, as shown in FIG. 2, the game field may include a portion outside the range in which the player can move. For example, in sports, a game is generally performed within a range surrounded by a boundary line, but the game field may include the range without ending the boundary line. That is, the bitmap may include the range.

各セルは、当該セルに選手が存在するか否かについての情報を有する。例えば、初期状態のビットマップでは、各セルが有する、選手の存在に関する情報は0(存在しない)とする。そして、訓練用ビットマップ生成部141が、1番目の選手の位置データから、1番目の選手が存在するセルが有する、選手の存在に関する情報を1(存在する)に更新する。この作業を最後の選手まで繰り返すことにより、各セルが選手の存在についての情報を有することができる。なお、各セルは選手を識別する情報は有していないため、ビットマップにおいて、選手個人は識別されないとする。   Each cell has information about whether or not there is a player in the cell. For example, in the bitmap in the initial state, the information regarding the presence of the player in each cell is 0 (does not exist). Then, the training bitmap generation unit 141 updates the information related to the presence of the player in the cell in which the first player exists from the position data of the first player to 1 (exists). By repeating this operation up to the last player, each cell can have information about the presence of the player. Since each cell does not have information for identifying a player, it is assumed that individual players are not identified in the bitmap.

図2では、セルが有する選手の情報に基づき、同一チームの選手が存在するセルを黒く表示している。このように、ビットマップにより、各選手の位置を示すことができる。なお、図2では、説明の便宜上、ビットマップを画像として表示したが、実装上は、位置データ提供装置11ではメモリ効率を向上させるためにセルの位置を示す情報(例えば行番号と列番号)と、セルが有する情報と、を組み合わせたデータで保持しておいてもよい。   In FIG. 2, the cell in which the players of the same team exist is displayed in black based on the player information of the cell. Thus, the position of each player can be shown by the bitmap. In FIG. 2, for convenience of explanation, the bitmap is displayed as an image. However, in the implementation, the position data providing apparatus 11 has information (for example, a row number and a column number) indicating the cell position in order to improve memory efficiency. And information held by the cell may be held as data.

なお、複数の選手の位置、つまり位置関係を示すビットマップを、特に、位置関係のビットマップ(第1ビットマップ)と記載する。これは、後述する、個人のビットマップおよびオブジェクトのビットマップと区別するためである。また、位置関係のビットマップは、推定モデルの訓練データとして用いられる。推定モデルの訓練データとして用いられるビットマップを、訓練用ビットマップと記載する。   In addition, the bitmap which shows the position of a some player, ie, a positional relationship, is described especially as a positional relationship bitmap (1st bitmap). This is for distinguishing from the personal bitmap and the object bitmap, which will be described later. The positional relationship bitmap is used as training data for the estimation model. A bitmap used as training data for the estimation model is referred to as a training bitmap.

ビットマップは、試合に出場している全選手を示すように生成されてもよいが、チームごとに生成されたほうが好ましい。チームごとのビットマップでは、チームがボール有しているか否かにより異なる特徴が表れるが、全選手を同一のビットマップで示すと、選手の所属チームを認識させていないために、その特徴が失われてしまう。ゆえに、ビットマップをチームごとに分けたほうが、推定の精度が高まる。なお、3チーム以上が同時に試合を行うようなスポーツであっても、そのチーム数だけビットマップを生成すればよい。   The bitmap may be generated so as to show all players participating in the game, but it is preferable to generate the bitmap for each team. The bit map for each team shows different characteristics depending on whether the team has the ball or not. However, if all players are shown in the same bit map, the player's team is not recognized, so the characteristics are lost. It will be broken. Therefore, the accuracy of estimation increases when the bitmap is divided into teams. Even in a sport where three or more teams play a game at the same time, bitmaps need only be generated for the number of teams.

なお、選手個人による影響を考慮した推定モデルを生成したい場合は、訓練用ビットマップ生成部141は、位置関係のビットマップとは別に、個人の位置を示すビットマップ(個人のビットマップ)を生成する。なお、個人のビットマップに示される選手は一人でもよい。個人のビットマップも、訓練用ビットマップに含めてよい。   If it is desired to generate an estimation model that takes into account the effects of individual players, the training bitmap generation unit 141 generates a bitmap (individual bitmap) indicating the individual position separately from the positional relationship bitmap. To do. One player may be shown in the personal bitmap. Individual bitmaps may also be included in the training bitmap.

訓練用ビットマップ生成部141は、オブジェクトの位置を示すビットマップ(オブジェクトのビットマップ)を生成してもよい。オブジェクトのビットマップは、オブジェクトの位置を示す位置データから生成してもよい。あるいは、イベントデータあるいは推定モデルにより、オブジェクトの位置が推定された上で、生成されてもよい。なお、オブジェクトのビットマップに示されるオブジェクトは一つでもよい。オブジェクトのビットマップは、訓練用ビットマップに含めてもよいし、教師信号として用いられてもよい。また、オブジェクトのビットマップは、ボールが空中に存在する場合を考慮して、2次元ではなく、3次元で表されてもよい。   The training bitmap generation unit 141 may generate a bitmap (object bitmap) indicating the position of the object. The object bitmap may be generated from position data indicating the position of the object. Alternatively, it may be generated after the position of the object is estimated by event data or an estimation model. Note that the number of objects shown in the object bitmap may be one. The bitmap of the object may be included in the training bitmap or may be used as a teacher signal. Further, the bitmap of the object may be represented in three dimensions instead of two dimensions in consideration of the case where the ball exists in the air.

なお、上記の説明では、選手・オブジェクト位置情報を表すデータ構造を、各セルに0か1の値を持つビットマップとして説明したが、これを拡張して、各セルが0からNまでのいずれかの整数を持つようにしてもよい。この場合、各セルの値が、選手・オブジェクトの属性情報等を表すことになる。例えば、選手が存在しないセルが有する情報を0とし、チームAの選手だけが存在するセルが有する情報を1とし、チームBの選手だけが存在するセルが有する情報を2とし、両方の選手が存在するセルが有する情報を3としてもよい。さらに、セル内にボールが存在する場合は、セルが有する情報に4を加算し、0から7の8通りの情報にて各チームの選手とオブジェクトの存在を表現してもよい。また、オブジェクトが空中に存在する場合もあるため、オブジェクトが存在する高さを区別可能なように値を変えてもよい。例えば、高さを、「地面付近」、「浮いた状態」、「上空」といった複数の範囲に区切り、オブジェクトが存在する範囲に該当する値をセルが保有するようにしてもよい。 In the above description, the data structure representing the player / object position information has been described as a bitmap having a value of 0 or 1 in each cell. You may make it have such an integer. In this case, the value of each cell represents the attribute information of the player / object. For example, the information of a cell in which no player is present is 0, the information of a cell in which only a team A player is present is 1, and the information of a cell in which only a team B player is present is 2. It is good also considering the information which the existing cell has as 3. Further, when a ball is present in the cell, 4 may be added to the information held in the cell, and the presence of the players and objects of each team may be expressed by eight types of information from 0 to 7. Further, since the object may exist in the air, the value may be changed so that the height at which the object exists can be distinguished. For example, the height may be divided into a plurality of ranges such as “near the ground”, “floating state”, and “sky”, and the cell may have a value corresponding to the range in which the object exists.

また、ビットマップをチームなどに応じて分けた場合でも、各セルが有する情報量を増やして、各セルに存在する選手の、身長、年齢、年収、短距離走の公表タイムといった数値で表すことが可能な特徴を示してもよい。例えば、セルに選手が存在する場合は全て1とするのではなく、セルに身長160cm台の選手が存在する場合は1とし、身長170cm台の選手が存在する場合は2とし、身長180cm台の選手が存在する場合は3とし、身長190cm以上の選手が存在する場合は4としてもよい。なお、選手の背番号など、選手の特徴を示さない数値は、セルが有する情報に含めない。   Even if the bitmap is divided according to the team, etc., the amount of information each cell has should be increased and expressed by numerical values such as the height, age, annual income, and sprint run time of the players present in each cell. May show possible features. For example, if there are players in the cell, it is not set to 1, but if the player has a height of 160 cm in the cell, it is set to 1, if there is a player with a height of 170 cm, it is set to 2, and the height is 180 cm It may be 3 when there is a player, and 4 when there is a player with a height of 190 cm or more. Note that numerical values that do not indicate the player's characteristics, such as the player's spine number, are not included in the information held by the cell.

教師信号決定部142は、生成する推定モデルの出力の種類に応じて、各時点における教師信号を決定する。   The teacher signal determination unit 142 determines a teacher signal at each time point in accordance with the type of output of the estimation model to be generated.

推定モデルの出力が、推定モデルへの入力データに対応する時点以降における所定イベントの発生を示すものとする場合は、教師信号決定部142は、イベントデータを用いて、教師信号を決定する。教師信号決定部142は、イベントデータに基づき、当該時点から所定時間が経過するまでに所定のイベントが発生したかを判定する。そして、判定結果に応じた値を教師信号とする。判定結果に応じた値は、論理値でもよいし、スカラ値でもよい。   When the output of the estimation model indicates the occurrence of a predetermined event after the time corresponding to the input data to the estimation model, the teacher signal determination unit 142 determines the teacher signal using the event data. Based on the event data, the teacher signal determination unit 142 determines whether a predetermined event has occurred before a predetermined time has elapsed from that point. A value corresponding to the determination result is used as a teacher signal. The value corresponding to the determination result may be a logical value or a scalar value.

例えば、時刻t(tは時刻を表す変数)にゴールが生まれた場合に、時刻tから30秒間遡った期間に含まれる各時点における教師信号は、「真」を意味する数値(例えば1)と決定してもよい。あるいは、ある時点にける教師信号は、当該時点から時刻tまでの時間長に基づくスカラ値としてもよい。   For example, when a goal is born at time t (t is a variable representing time), a teacher signal at each time point included in a period 30 seconds after time t is a numerical value (for example, 1) that means “true”. You may decide. Alternatively, the teacher signal at a certain time may be a scalar value based on the time length from that time to time t.

なお、選手の位置により推定可能なイベントは、イベントデータではなく、位置データからイベントの発生を認識してもよい。つまり、教師信号決定部142は、位置データを用いて、教師信号を決定してもよい。例えば、サッカーでは、ゴールが決まった後は、キックオフから試合が再開される。キックオフの際は、選手は許された範囲内にしか存在できず、また少なくとも1人が、センターサークル中央に置かれたボールを蹴るために、センターサークル中央付近に存在する。このように、キックオフ時の選手の位置は特徴的であるため、選手の位置からキックオフを認識可能である。ゆえに、試合途中であれば、ゴールも認識可能である。ゆえに、イベントの発生に関する推定モデルを生成する場合であっても、イベントデータ提供装置12が必須であるわけではない。   The event that can be estimated based on the position of the player may recognize the occurrence of the event not from the event data but from the position data. That is, the teacher signal determination unit 142 may determine a teacher signal using position data. For example, in soccer, after a goal is decided, the game is resumed from the kick-off. At the time of kick-off, a player can exist only within the permitted range, and at least one person exists near the center of the center circle to kick a ball placed in the center of the center circle. Thus, since the position of the player at the time of kick-off is characteristic, the kick-off can be recognized from the position of the player. Therefore, the goal can be recognized during the match. Therefore, the event data providing device 12 is not essential even when an estimation model relating to the occurrence of an event is generated.

推定モデルの出力が、推定モデルへの入力データに対応する時点よりも後の時点における選手の位置を示すものとする場合は、教師信号決定部142は、推定モデルへの入力データに対応する時点よりも後の時点に係る選手の位置を示すデータを教師信号として決定する。単に、位置を出力させる場合は、ビットマップを教師信号として用いてもよいが、選手の動きを出力させる場合は、後述のポジションマップを用いる。「後の時点」は、推定モデルへの入力データに対応する時点から一定時間経過後としてもよい。あるいは、位置関係に関する所定の条件を予め定めておき、教師信号決定部142が推定モデルへの入力データに対応する時点よりも後における位置データ、ビットマップ、またはポジションマップから当該条件を満たす最初の時点を調査して、当該最初の時点を「後の時点」としてもよい。   When the output of the estimation model indicates the position of the player after the time corresponding to the input data to the estimation model, the teacher signal determination unit 142 determines the time corresponding to the input data to the estimation model. Data indicating the position of the player at a later time is determined as a teacher signal. If the position is simply output, the bitmap may be used as a teacher signal. However, if the movement of the player is output, a position map described later is used. The “later time point” may be after a certain time has elapsed from the time point corresponding to the input data to the estimation model. Alternatively, a predetermined condition regarding the positional relationship is determined in advance, and the first time that satisfies the condition is determined from position data, a bitmap, or a position map after the time when the teacher signal determination unit 142 corresponds to the input data to the estimation model. By examining the time point, the first time point may be set as the “later time point”.

推定モデルの出力が、推定モデルへの入力データに対応する時点以降における、オブジェクトの位置を示すものとする場合は、教師信号決定部142は、オブジェクトの位置データ、オブジェクトのビットマップなどを用いて、教師信号を決定する。   When the output of the estimation model indicates the position of the object after the time corresponding to the input data to the estimation model, the teacher signal determination unit 142 uses the position data of the object, the bitmap of the object, etc. Determine the teacher signal.

訓練データ提供部(記憶部)143は、訓練用ビットマップと、教師信号と、を時間情報とともに記憶する。そして、訓練データ提供部143は、推定モデルの訓練データとして、ある時点におけるポジションマップと、当該時点における教師信号と、を推定モデル生成部144に提供する。訓練データとして用いられるポジションマップを、訓練用ポジションマップと記載する。   The training data providing unit (storage unit) 143 stores a training bitmap and a teacher signal together with time information. Then, the training data providing unit 143 provides the estimated model generating unit 144 with a position map at a certain time point and a teacher signal at that time point as training data of the estimated model. A position map used as training data is referred to as a training position map.

ポジションマップは、ビットマップを推定モデルに入力する際の単位であり、ある時点におけるポジションマップは、ある時点における位置関係のビットマップを少なくとも一つ含む。例えば、時刻tにおける出場全選手を示したビットマップだけを含んでいてもよい。時刻tにおけるチームAのビットマップと、時刻tにおけるチームBのビットマップと、を含んでいてもよい。あるいは、時刻tにおけるビットマップと、時刻tから遡った所定期間内の各時点におけるビットマップと、を含んでいてもよい。   The position map is a unit for inputting a bitmap into the estimation model, and the position map at a certain point in time includes at least one bitmap of the positional relationship at a certain point in time. For example, only a bitmap showing all players who participated at time t may be included. A team A bitmap at time t and a team B bitmap at time t may be included. Alternatively, it may include a bitmap at time t and a bitmap at each point in time within a predetermined period going back from time t.

ポジションマップは、複数の時点におけるビットマップを含んでいたほうが好ましい。その場合、ポジションマップが選手の動き(オブジェクトのビットマップならオブジェクトの動き)に係る情報も有するからである。第1時点におけるビットマップと、第1時点よりも前の第2時点におけるビットマップと、が含まれる場合は、ポジションマップは、ビットマップに示された選手またはオブジェクトの速度情報を有する。第2時点よりも前の第3時点におけるビットマップがさらに含まれる場合は、ポジションマップは、ビットマップに示された選手またはオブジェクトの加速度の情報も有する。これにより、推定モデルの出力結果も当該情報を有することができ、選手の動きおよびその加速度を分析、評価することができる。   The position map preferably includes bitmaps at a plurality of points in time. In this case, the position map also includes information relating to the movement of the player (the movement of the object in the case of the object bitmap). When the bitmap at the first time point and the bitmap at the second time point before the first time point are included, the position map has the speed information of the player or the object indicated in the bitmap. In a case where a bitmap at a third time point before the second time point is further included, the position map also includes information on the acceleration of the player or object indicated in the bitmap. Thereby, the output result of an estimation model can also have the said information, and can analyze and evaluate a player's movement and its acceleration.

なお、第2時点は、第1時点よりも前であればよく、第1時点よりも1つ前の計測タイミングとは限らない。第3時点も同様である。   The second time point only needs to be before the first time point, and is not necessarily the measurement timing one time before the first time point. The same applies to the third time point.

また、前述の通り、位置関係のビットマップは、チームごとに別れていたほうが好ましい。つまり、ポジションマップに含まれる位置関係のビットマップは、試合に出場している各チームごとに別れているほうが好ましい。   Further, as described above, the positional relationship bitmap is preferably separated for each team. That is, it is preferable that the positional relationship bitmap included in the position map is separated for each team participating in the game.

なお、ポジションマップが含むビットマップの数をチャネルと記載する。三つの時点における2チームのビットマップを含めたポジションマップのチャネルは6となる。なお、ボールのビットマップをさらに含めるとすると、ポジションマップのチャネルは9になる。   The number of bitmaps included in the position map is described as a channel. There will be 6 position map channels, including 2 teams' bitmaps at three times. If the ball bitmap is further included, the position map channel is 9.

なお、訓練データ提供部143は、属性データ提供装置13から属性データを受信した場合、属性を訓練用ビットマップと対応付けて記憶し、当該属性も推定モデルの訓練データとして提供してもよい。   When receiving the attribute data from the attribute data providing device 13, the training data providing unit 143 may store the attribute in association with the training bitmap, and provide the attribute as the training data of the estimation model.

推定モデル生成部(学習部)144は、各時点における訓練用のポジションマップおよび教師信号に基づく学習を繰り返すことにより、推定モデルを生成する。推定モデルのネットワークとしては、畳み込みニューラルネットワーク(CNN)などが用いられることが想定される。ポジションマップがニューラルネットワークの入力層に入力され、各中間層における演算を経て、出力層から結果が出力される。推定モデル生成部144は、出力結果が教師信号に近づくように、各中間層における演算の重み付け係数(パラメータ)を更新する。そして、当該更新が繰り返されて、推定モデルが生成される。   The estimation model generation unit (learning unit) 144 generates an estimation model by repeating learning based on the position map for training and the teacher signal at each time point. It is assumed that a convolutional neural network (CNN) or the like is used as the estimation model network. A position map is input to the input layer of the neural network, and a result is output from the output layer through computation in each intermediate layer. The estimation model generation unit 144 updates the weighting coefficient (parameter) of the calculation in each intermediate layer so that the output result approaches the teacher signal. And the said update is repeated and an estimation model is produced | generated.

なお、提供された全てのポジションマップを用いるのではなく、所定の条件を満たすポジションマップだけを用いることにより、所定の条件に特化した推定モデルを生成することも考えられる。例えば、所定のチームのポジションマップだけを用いて学習を行うことにより、所定のチームのための推定モデルを生成することもできる。   Note that it is also conceivable to generate an estimation model specialized for a predetermined condition by using only a position map that satisfies a predetermined condition instead of using all provided position maps. For example, an estimation model for a predetermined team can be generated by performing learning using only the position map of the predetermined team.

また、訓練データ提供部143から属性が提供された場合は、当該属性が一致するポジションマップだけを学習して、所定の属性に特化した推定モデルを生成してもよい。あるいは、属性もポジションマップとともに推定モデルに入力されてもよい。   In addition, when an attribute is provided from the training data providing unit 143, only the position map that matches the attribute may be learned to generate an estimation model specialized for the predetermined attribute. Alternatively, the attribute may be input to the estimation model together with the position map.

推定モデルから得られる推定データは、教師信号に関するものとなる。つまり、ある時点以降における所定のイベントの発生に係る数値、ある時点よりも後の時点におけるポジションマップ、ある時点以降におけるオブジェクトの位置などが得られる。ポジションマップが得られた場合は、複数の時点における選手の位置を同時に推定したことになる。このように、生成された推定モデルを用いれば、試合状況に関する推定を行うことができる。   The estimation data obtained from the estimation model is related to the teacher signal. That is, a numerical value related to the occurrence of a predetermined event after a certain time point, a position map after a certain time point, a position of an object after a certain time point, and the like are obtained. When the position map is obtained, the positions of the players at a plurality of time points are estimated simultaneously. Thus, if the estimated model produced | generated is used, the estimation regarding a game condition can be performed.

推定用データ提供装置15は、推定処理装置16に、推定用のデータを提供する装置である。推定用のデータには、少なくとも、複数の時点における各選手の位置を示す位置データが含まれる。さらに、属性データが含まれていてもよい。   The estimation data providing device 15 is a device that provides estimation data to the estimation processing device 16. The estimation data includes at least position data indicating the position of each player at a plurality of time points. Furthermore, attribute data may be included.

推定処理装置16は、推定モデル生成装置14により生成された推定モデルをソフトウェアの一部であるプログラムモジュールとして使用し、推定用データ提供装置15からの位置データから、試合状況に関する推定を行う。   The estimation processing device 16 uses the estimation model generated by the estimation model generation device 14 as a program module that is a part of software, and estimates the game situation from the position data from the estimation data providing device 15.

推定モデル記憶部161は、学習済みの推定モデルを属性ごとに分類して記憶する。これにより、推定部163が、属性に応じた推定モデルを抽出することができる。   The estimated model storage unit 161 classifies and stores learned estimated models for each attribute. Thereby, the estimation part 163 can extract the estimation model according to the attribute.

推定用ビットマップ生成部162は、推定モデルの入力に用いられる、試合場の各区画での選手の存在に関する情報を生成する。具体的には、推定用データ提供装置15からの位置データに基づき、学習済みの推定モデルの入力データとして用いられるビットマップを生成する。学習済みの推定モデルの入力データとして用いられるビットマップを、推定用ビットマップと記載する。推定用ビットマップの生成は、訓練用ビットマップ生成部141と同様に行われればよい。   The estimation bitmap generation unit 162 generates information related to the presence of players in each section of the game field, which is used to input an estimation model. Specifically, a bitmap used as input data for a learned estimation model is generated based on the position data from the estimation data providing device 15. A bitmap used as input data for a learned estimation model is referred to as an estimation bitmap. The generation of the estimation bitmap may be performed in the same manner as the training bitmap generation unit 141.

推定部163は、推定モデル記憶部161から推定モデルを取得する。推定用データ提供装置15から属性を取得した場合は、複数の推定モデルのうちから、当該属性に応じた推定モデルを抽出する。   The estimation unit 163 acquires an estimation model from the estimation model storage unit 161. When an attribute is acquired from the estimation data providing apparatus 15, an estimation model corresponding to the attribute is extracted from a plurality of estimation models.

そして、推定部163は、抽出した推定モデルを用いて、推定データを得る。図3は、推定データの取得について説明する図である。図の左側に示すように、推定部163は、推定用ビットマップ生成部162からの推定用ビットマップをポジションマップとしてまとめた上で、入力データとして推定モデルへ入力する。図3では、三つの時点における各チームのビットマップがポジションマップに含まれている。このビットマップは、縦と横の2次元の情報を有するため、ポジションマップは、縦、横、および時間の3次元の情報を有する。なお、学習済みの推定モデルの入力データとして用いられるポジションマップを、推定用ポジションマップと記載する。ニューラルネットワークである推定モデルの入力層に推定用ポジションマップが入力されると、図の中央に示すように、推定モデルの各中間層において、学習済みのパラメータに基づく演算が行われる。そして図の右側に示すように、推定モデルの出力層から結果として推定データが出力される。推定モデルから得られた推定データは、前述の通り、教師信号に関するものとなり、入力データに対応する時点以降におけるスポーツの試合状況に関するものとなる。   Then, the estimation unit 163 obtains estimation data using the extracted estimation model. FIG. 3 is a diagram illustrating acquisition of estimated data. As shown on the left side of the figure, the estimation unit 163 summarizes the estimation bitmaps from the estimation bitmap generation unit 162 as a position map, and inputs them to the estimation model as input data. In FIG. 3, the bit map of each team at three time points is included in the position map. Since this bitmap has two-dimensional information of vertical and horizontal, the position map has three-dimensional information of vertical, horizontal, and time. A position map used as input data for a learned estimation model is referred to as an estimation position map. When the position map for estimation is input to the input layer of the estimation model that is a neural network, as shown in the center of the figure, calculation based on the learned parameters is performed in each intermediate layer of the estimation model. As shown on the right side of the figure, estimated data is output as a result from the output layer of the estimated model. As described above, the estimation data obtained from the estimation model relates to the teacher signal, and relates to the sports game situation after the time corresponding to the input data.

図4は、推定の結果の一例について示す図である。図4には、推定モデルによる推定結果を表す推定グラフ21と、Ground Truthを表すグラフ22が示されている。図4に係る推定モデルは、プレーブレークが発生するまでの時間を推定するモデルである。プレーブレークは、ゴール、スローインなど、アウトオブプレーになるイベントを意味する。ゆえに、プレーブレークが発生するまでの時間は、アウトオブプレーになる複数のイベントのいずれかが発生するまでの時間である。   FIG. 4 is a diagram illustrating an example of the estimation result. FIG. 4 shows an estimation graph 21 representing an estimation result by the estimation model, and a graph 22 representing Ground Truth. The estimation model according to FIG. 4 is a model for estimating the time until a play break occurs. A play break means an event that goes out of play, such as a goal or a throw-in. Therefore, the time until the play break occurs is the time until any of a plurality of events going out of play occurs.

この推定モデルに用いられた訓練用ポジションマップは、ある時点における各チームのビットマップと、当該時点よりも200ミリ秒[ms]前における各チームのビットマップと、当該時点よりも400ミリ秒[ms]前における各チームのビットマップと、を含む。つまり、6チャネルを有するポジションマップを、推定モデルの訓練データとして用いた。また、ポジションマップに含まれるビットマップにおけるセルは約1m四方の大きさとし、セルは選手の存在の有無だけの情報(0または1)を有するものとした。教師信号は、ポジションマップに対応する時点から、次のプレーブレークが発生する時点までの時間長の自然対数とした。これは、プレーブレークが発生する時点に近づくにつれて、推定値の精度が上がることは明らかであるため、プレーブレークが発生する時点に近いほど誤差が大きくなるようにしたためである。   The training position map used in this estimation model includes a bit map of each team at a certain time point, a bit map of each team 200 ms before the time point, and 400 ms after the time point [ ms] each team's bitmap. That is, a position map having 6 channels was used as training data for the estimation model. The cell in the bitmap included in the position map has a size of about 1 m square, and the cell has information (0 or 1) only on the presence or absence of the player. The teacher signal is a natural logarithm of the length of time from the time corresponding to the position map to the time when the next play break occurs. This is because it is clear that the accuracy of the estimated value increases as the time when the play break occurs, so that the error increases as the play break occurs.

図4に示されるように、推定グラフ21が、Ground Truthのグラフ22と同様に、ゴールが生まれた時点に近づくにつれて減少するように推移している。このように、ポジションマップを訓練データとして学習させた推定モデルを用いて、試合状況について推定が可能である。   As shown in FIG. 4, the estimated graph 21 changes so as to decrease as the goal is born, similar to the ground truth graph 22. In this way, it is possible to estimate the game situation using an estimation model in which the position map is learned as training data.

なお、推定部163は、複数の推定モデルを用いて、複数の推定結果を生成してもよい。例えば、今後の位置を予測する推定モデルを用いて、時刻tのポジションマップから、時刻t+Δ(Δは時間長を表す変数)のポジションマップを算出する。そして、ゴール確率の推定モデルを用いて、時刻tのポジションマップおよび時刻t+Δのポジションマップから、それぞれのゴール確率を算出してもよい。これにより、今後のゴール確率が増加するのか減少するのかを認識することができる。   Note that the estimation unit 163 may generate a plurality of estimation results using a plurality of estimation models. For example, a position map at time t + Δ (Δ is a variable representing a time length) is calculated from a position map at time t using an estimation model for predicting a future position. Then, each goal probability may be calculated from the position map at time t and the position map at time t + Δ by using the goal probability estimation model. Thereby, it can be recognized whether the future goal probability increases or decreases.

推定結果処理部(評価部)164は、推定部からの推定データを出力用に加工する。なお、推定データをそのまま外部の装置に出力する場合は、推定結果処理部(評価部)164は省略されてもよい。   The estimation result processing unit (evaluation unit) 164 processes the estimation data from the estimation unit for output. Note that when the estimation data is output to an external device as it is, the estimation result processing unit (evaluation unit) 164 may be omitted.

例えば、時刻tにおける位置関係からゴール確率が推定された場合は、当該ゴール確率から、時刻tにおける位置関係の評価を決定し、当該評価を推定結果としてもよい。評価規則は適宜に定めてよい。評価は、点数であらわされてもよいし、Good、Badなどの分類で表されてもよい。   For example, when the goal probability is estimated from the positional relationship at time t, the evaluation of the positional relationship at time t may be determined from the goal probability, and the evaluation may be used as the estimation result. Evaluation rules may be determined as appropriate. The evaluation may be represented by a score, or may be represented by a classification such as Good or Bad.

また、推定データとして、ポジションマップが算出された場合は、推定結果処理部164が、当該データから、図2に示したようなビットマップに係る画像を生成してもよい。また、推定される位置を確率で示す場合には、ヒートマップのような画像を生成してもよい。   When a position map is calculated as the estimation data, the estimation result processing unit 164 may generate an image related to the bitmap as shown in FIG. 2 from the data. Further, when the estimated position is indicated by a probability, an image like a heat map may be generated.

図5は、推定の結果の他の一例について示す図である。この推定モデルは、入力されたポジションマップと同じ時点において、ボールがいずれのセルに存在するかを推定するモデルであり、各セルにボールが存在する確率を出力する。訓練用のビットマップなどの設定は、図4の推定モデルに用いたものと同じである。教師信号は、ボールの位置データである。   FIG. 5 is a diagram illustrating another example of the estimation result. This estimation model is a model for estimating in which cell the ball exists at the same time as the input position map, and outputs the probability that the ball exists in each cell. The setting of the training bitmap and the like is the same as that used in the estimation model of FIG. The teacher signal is ball position data.

図5では、推定モデルにより出力された各セルの確率がヒートマップで示されている。確率が黒白の濃淡で示されており、白いほど確率が高いことを示す。また、黒縁の白丸がボールの実際の位置を示す。なお、白縁の黒丸および黒四角は各チームの選手を示す。実際のボール位置の周辺において、セルが白色となっていることから、この推定モデルが、ボール位置を推定できていることが分かる。   In FIG. 5, the probability of each cell output by the estimation model is shown as a heat map. The probability is shown in shades of black and white, and the whiter the probability is higher. Also, the white circle on the black edge indicates the actual position of the ball. The white circles and black squares indicate the players of each team. Since the cell is white around the actual ball position, it can be seen that this estimation model can estimate the ball position.

推定処理装置16の推定結果に係るデータは、推定用データ提供装置15にフィードバックされる。なお、推定用データ提供装置15ではない出力先装置が指定されて、指定された出力先装置に送信されてもよい。   Data related to the estimation result of the estimation processing device 16 is fed back to the estimation data providing device 15. Note that an output destination device that is not the estimation data providing device 15 may be designated and transmitted to the designated output destination device.

また、推定結果を確認したユーザは、推定用データ提供装置15を介して、ある選手の位置を変更した位置データを推定処理装置16に送信することも考えられる。例えば、時刻tにおける選手の位置関係では失点する確率が高いという推定結果が得られた場合に、失点する確率を減らすために、時刻tにおけるディフェンダーの位置を変更することが考えられる。このような場合でも、再度、変更させた場合の位置データが推定用データ提供装置15から提供されて、新たな推定データが算出される。この場合において、推定結果処理部164は、変更前および変更後の推定データを比較することにより、位置の変更の優劣を判定してもよい。   It is also conceivable that the user who has confirmed the estimation result transmits position data obtained by changing the position of a certain player to the estimation processing device 16 via the estimation data providing device 15. For example, when the estimation result that the probability of losing is high is obtained in the positional relationship of the players at time t, it is conceivable to change the position of the defender at time t in order to reduce the probability of losing. Even in such a case, the position data when changed again is provided from the estimation data providing device 15, and new estimation data is calculated. In this case, the estimation result processing unit 164 may determine the superiority or inferiority of the position change by comparing the estimation data before and after the change.

次に、本実施形態の処理の流れについて説明する。図6は、本発明の一実施形態に係る推定システム1の処理の概略フローチャートである。本フローチャートでは、イベントデータおよび属性データを用いる場合を記載する。   Next, the processing flow of the present embodiment will be described. FIG. 6 is a schematic flowchart of processing of the estimation system 1 according to an embodiment of the present invention. This flowchart describes a case where event data and attribute data are used.

位置データ提供装置11が試合中の各選手の位置を測定し、測定結果を位置データとして推定モデル生成装置14に送信する(S101)。また、イベントデータ提供装置12は、イベントデータを推定モデル生成装置14に送信する(S102)。また、属性データ提供装置13は、属性データを推定モデル生成装置14に送信する(S103)。こうして推定モデル生成装置14は、各データ提供装置から受信した各データに基づき、推定モデルを生成する(S104)。   The position data providing apparatus 11 measures the position of each player in the game, and transmits the measurement result to the estimated model generation apparatus 14 as position data (S101). Further, the event data providing device 12 transmits the event data to the estimated model generation device 14 (S102). The attribute data providing device 13 transmits the attribute data to the estimated model generating device 14 (S103). Thus, the estimated model generation device 14 generates an estimated model based on each data received from each data providing device (S104).

生成された推定モデルは、推定処理装置16に送られる。その後、位置データおよび属性データを含む推定用データが、推定用データ提供装置15から送られ、推定処理装置16が当該推定用データを受信する(S106)。推定処理装置16が、属性に応じた推定モデルを用いて位置データに基づく推定処理を実行する(S106)。そして、推定処理装置16が出力先に推定処理の結果を送信し(S107)、出力先にて、推定の依頼者が推定処理の結果を得ることができる。   The generated estimation model is sent to the estimation processing device 16. Thereafter, estimation data including position data and attribute data is sent from the estimation data providing device 15, and the estimation processing device 16 receives the estimation data (S106). The estimation processing device 16 executes an estimation process based on the position data using an estimation model corresponding to the attribute (S106). Then, the estimation processing device 16 transmits the estimation processing result to the output destination (S107), and the estimation requester can obtain the estimation processing result at the output destination.

次に、推定モデル生成の処理の流れについて説明する。図7は、本発明の一実施形態に係る推定モデル生成装置14の処理の概略フローチャートである。   Next, the flow of processing for generating an estimated model will be described. FIG. 7 is a schematic flowchart of processing of the estimation model generation device 14 according to the embodiment of the present invention.

訓練用ビットマップ生成部141が、各時点における位置データから、各時点における訓練用ビットマップをそれぞれ生成する(S201)。一方、教師信号決定部142は、位置データまたはイベントデータから各時点における教師信号を決定する(S202)。訓練用ビットマップおよび教師信号は、訓練データ提供部143に送られ、訓練データ提供部143が記憶する(S203)。   The training bitmap generation unit 141 generates a training bitmap at each time point from the position data at each time point (S201). On the other hand, the teacher signal determination unit 142 determines a teacher signal at each time point from position data or event data (S202). The training bitmap and the teacher signal are sent to the training data providing unit 143 and stored in the training data providing unit 143 (S203).

訓練データ提供部143は、ある時点におけるビットマップと、当該ビットマップに付随させる他のビットマップと、をまとめて、当該時点におけるポジションマップとした上で、当該時点における教師信号とともに、訓練データとして、推定モデル生成部144に提供する(S204)。推定モデル生成部144は、推定モデルを用いて、ポジションマップに基づき、推定モデルの目的変数の推定値を算出する(S205)。そして、推定値および教師信号に基づき、推定モデルのパラメータを更新する(S206)。   The training data providing unit 143 combines the bitmap at a certain time point and other bitmaps to be attached to the bitmap into a position map at the corresponding time point, together with a teacher signal at the corresponding time point, as training data And provided to the estimated model generation unit 144 (S204). The estimated model generation unit 144 calculates an estimated value of the objective variable of the estimated model based on the position map using the estimated model (S205). Then, the parameter of the estimation model is updated based on the estimated value and the teacher signal (S206).

学習の終了条件を満たしていない場合(S207のNO)は、再び、訓練データ提供部143から訓練データが提供されて、推定モデルの学習が繰り返される。こうして、推定モデルのパラメータが改善されていき、学習の終了条件を満たしたときに(S207のYES)、フローが終了する。学習の終了条件は、損失関数、学習回数、残りの訓練データの有無などに基づき、適宜に定めてよい。   When the learning end condition is not satisfied (NO in S207), the training data is provided from the training data providing unit 143 again, and the learning of the estimation model is repeated. In this way, the parameters of the estimation model are improved, and when the learning end condition is satisfied (YES in S207), the flow ends. The learning termination condition may be determined as appropriate based on the loss function, the number of times of learning, the presence / absence of remaining training data, and the like.

次に、推定処理装置16の処理の流れについて説明する。図8は、本発明の一実施形態に係る推定処理装置16の処理の概略フローチャートである。   Next, the processing flow of the estimation processing device 16 will be described. FIG. 8 is a schematic flowchart of processing of the estimation processing device 16 according to an embodiment of the present invention.

推定用ビットマップ生成部162が、推定用データ内の各時点の位置データから各時点のビットマップを生成する(S301)。一方、推定部163は、推定モデル記憶部161に記憶されている複数の推定モデルから、推定用データ内の属性に対応する推定モデルを選択する(S302)。   The estimation bitmap generation unit 162 generates a bitmap at each time point from the position data at each time point in the estimation data (S301). On the other hand, the estimation unit 163 selects an estimation model corresponding to the attribute in the estimation data from the plurality of estimation models stored in the estimation model storage unit 161 (S302).

推定部163は、対象とするビットマップをまとめて推定用ポジションマップとした上で、選択された推定モデルを用いて、推定用ポジションマップに基づき、推定データを生成する(S303)。また、推定データをそのまま出力しない場合は、推定結果処理部は、推定データを出力用に加工する(S304)。   The estimation unit 163 combines the target bitmaps into an estimation position map, and then generates estimation data based on the estimation position map using the selected estimation model (S303). When the estimation data is not output as it is, the estimation result processing unit processes the estimation data for output (S304).

なお、本説明におけるフローチャートは一例であり、上記の例に限られるものではない。実施形態の求められる仕様、変更などに応じて、手順の並び替え、追加、および省略が行われてもよい。例えば、属性データを用いない場合は、推定部163は単に推定モデル記憶部161に記憶されている推定モデルを用いればよい。例えば、訓練用ビットマップの生成と、教師信号の決定と、は並行に処理されてもよい。   In addition, the flowchart in this description is an example and is not restricted to said example. The rearrangement, addition, and omission of procedures may be performed in accordance with required specifications and changes of the embodiment. For example, when attribute data is not used, the estimation unit 163 may simply use an estimation model stored in the estimation model storage unit 161. For example, the generation of the training bitmap and the determination of the teacher signal may be processed in parallel.

以上のように、本実施形態によれば、試合中のある時点における各選手の位置を示すポジションマップを訓練データとして用いて、ディープラーニングなどの機械学習を行うことにより、試合を推定するためのモデルが生成される。当該モデルにより、各選手の位置から試合を推定することが可能となり、試合およびチームの分析に活用することができる。   As described above, according to the present embodiment, the position map indicating the position of each player at a certain point in the game is used as training data, and machine learning such as deep learning is performed to estimate the game. A model is generated. The model makes it possible to estimate the game from the position of each player, and can be used for analysis of the game and the team.

また、属性に応じた推定モデルを生成することもでき、属性に応じた推定モデルを用いて推定を行うことにより、推定の精度が向上する。   In addition, an estimation model corresponding to the attribute can be generated, and the estimation accuracy is improved by performing estimation using the estimation model corresponding to the attribute.

なお、上記の実施形態の少なくとも一部は、プロセッサ、メモリなどを実装しているIC(Integrated Circuit:集積回路)などの専用の電子回路(すなわちハードウェア)により実現されてもよい。また、上記の実施形態の少なくとも一部は、ソフトウェア(プログラム)を実行することにより、実現されてもよい。例えば、汎用のコンピュータ装置を基本ハードウェアとして用い、コンピュータ装置に搭載された中央処理装置(CPU:Central Processing Unit)、画像処理装置(GPU:Graphics Processing Unit)などのプロセッサ(処理回路)にプログラムを実行させることにより、上記の実施形態の処理を実現することが可能である。言い換えると、当該プログラムの実行により、プロセッサ(処理回路)が、推定モデル生成装置14、推定処理装置16などの各処理を実行できるように構成される。   Note that at least a part of the above embodiments may be realized by a dedicated electronic circuit (that is, hardware) such as an IC (Integrated Circuit) on which a processor, a memory, and the like are mounted. Further, at least a part of the above-described embodiment may be realized by executing software (program). For example, a general-purpose computer device is used as basic hardware, and a program is processed in a processor (processing circuit) such as a central processing unit (CPU) and an image processing device (GPU) mounted on the computer device. By executing it, it is possible to realize the processing of the above embodiment. In other words, by executing the program, the processor (processing circuit) is configured to be able to execute each process such as the estimation model generation device 14 and the estimation processing device 16.

例えば、コンピュータが読み取り可能な記憶媒体に記憶された専用のソフトウェアをコンピュータが読み出すことにより、コンピュータを上記の実施形態の装置とすることができる。記憶媒体の種類は特に限定されるものではない。また、通信ネットワークを介してダウンロードされた専用のソフトウェアをコンピュータがインストールすることにより、コンピュータを上記の実施形態の装置とすることができる。こうして、ソフトウェアによる情報処理が、ハードウェア資源を用いて、具体的に実装される。   For example, when the computer reads out dedicated software stored in a computer-readable storage medium, the computer can be used as the apparatus of the above embodiment. The type of storage medium is not particularly limited. In addition, the computer can be used as the apparatus of the above-described embodiment by installing dedicated software downloaded via the communication network. In this way, information processing by software is specifically implemented using hardware resources.

図9は、本発明の一実施形態におけるハードウェア構成の一例を示すブロック図である。推定モデル生成装置14および推定処理装置16は、プロセッサ31と、主記憶装置32と、補助記憶装置33と、ネットワークインタフェース34と、デバイスインタフェース35と、を備え、これらがバス36を介して接続されたコンピュータ装置3として実現できる。   FIG. 9 is a block diagram illustrating an example of a hardware configuration according to an embodiment of the present invention. The estimation model generation device 14 and the estimation processing device 16 include a processor 31, a main storage device 32, an auxiliary storage device 33, a network interface 34, and a device interface 35, which are connected via a bus 36. The computer apparatus 3 can be realized.

なお、図9のコンピュータ装置3は、各構成要素を一つ備えているが、同じ構成要素を複数備えていてもよい。また、図9では、1台のコンピュータ装置3が示されているが、ソフトウェアが複数のコンピュータ装置にインストールされて、当該複数のコンピュータ装置それぞれがソフトウェアの異なる一部の処理を実行してもよい。   Although the computer apparatus 3 in FIG. 9 includes one component, the computer device 3 may include a plurality of the same components. In FIG. 9, one computer apparatus 3 is shown. However, software may be installed in a plurality of computer apparatuses, and each of the plurality of computer apparatuses may execute a part of processing different in software. .

プロセッサ31は、コンピュータの制御装置および演算装置を含む電子回路(処理回路)である。プロセッサ31は、コンピュータ装置3の内部構成の各装置などから入力されたデータやプログラムに基づいて演算処理を行い、演算結果や制御信号を各装置などに出力する。具体的には、プロセッサ31は、コンピュータ装置3のOS(オペレーティングシステム)や、アプリケーションなどを実行することにより、コンピュータ装置3を構成する各構成要素を制御する。プロセッサ31は、上記の処理を行うことができれば特に限られるものではない。推定モデル生成装置14および推定処理装置16内のビットマップ生成部(141および162)、教師信号決定部142、推定モデル生成部144、推定部163などは、プロセッサ31により実現される。プロセッサ31は、推定モデルを読み込むと、主記憶装置32または補助記憶装置33に記憶されたポジションマップから推定データを出力するように機能する。   The processor 31 is an electronic circuit (processing circuit) including a computer control device and an arithmetic device. The processor 31 performs arithmetic processing based on data and programs input from each device having an internal configuration of the computer device 3, and outputs a calculation result and a control signal to each device. Specifically, the processor 31 controls each component constituting the computer device 3 by executing an OS (operating system), an application, and the like of the computer device 3. The processor 31 is not particularly limited as long as the above processing can be performed. The estimation model generation device 14 and the bitmap generation units (141 and 162), the teacher signal determination unit 142, the estimation model generation unit 144, the estimation unit 163, and the like in the estimation processing device 16 are realized by the processor 31. When the estimated model is read, the processor 31 functions to output estimated data from the position map stored in the main storage device 32 or the auxiliary storage device 33.

主記憶装置32は、プロセッサ31が実行する命令および各種データなどを記憶する記憶装置であり、主記憶装置32に記憶された情報がプロセッサ31により直接読み出される。補助記憶装置33は、主記憶装置32以外の記憶装置である。なお、これらの記憶装置は、電子情報を格納可能な任意の電子部品を意味するものとし、メモリでもストレージでもよい。また、メモリには、揮発性メモリと、不揮発性メモリがあるが、いずれでもよい。推定モデル生成装置14および推定処理装置16内の各記憶部(143、161)は、主記憶装置32または補助記憶装置33により実現されてもよい。   The main storage device 32 is a storage device that stores instructions executed by the processor 31 and various data, and information stored in the main storage device 32 is directly read out by the processor 31. The auxiliary storage device 33 is a storage device other than the main storage device 32. These storage devices mean any electronic component capable of storing electronic information, and may be a memory or a storage. The memory includes a volatile memory and a non-volatile memory. Each storage unit (143, 161) in the estimation model generation device 14 and the estimation processing device 16 may be realized by the main storage device 32 or the auxiliary storage device 33.

ネットワークインタフェース34は、無線または有線により、通信ネットワーク4に接続するためのインタフェースである。ネットワークインタフェース34は、既存の通信規格に適合したものを用いればよい。ネットワークインタフェース34より、通信ネットワーク4を介して、コンピュータ装置3と外部装置5Aとを接続することができる。   The network interface 34 is an interface for connecting to the communication network 4 by wireless or wired. What is necessary is just to use the network interface 34 suitable for the existing communication standard. The computer device 3 and the external device 5A can be connected via the communication network 4 from the network interface 34.

デバイスインタフェース35は、外部装置5Bと直接接続するUSBなどのインタフェースである。つまり、コンピュータ装置3と外部装置5との接続は、ネットワークを介してでもよいし、直接でもよい。   The device interface 35 is an interface such as a USB that is directly connected to the external device 5B. That is, the connection between the computer device 3 and the external device 5 may be via a network or directly.

なお、外部装置5(5Aおよび5B)は、推定モデル生成装置14および推定処理装置16以外の各装置でもよいし、外部記憶媒体でもよいし、ストレージ装置でもよい。   The external device 5 (5A and 5B) may be each device other than the estimation model generation device 14 and the estimation processing device 16, an external storage medium, or a storage device.

なお、外部装置5は入力装置でもよい。入力装置は、キーボード、マウス、タッチパネルなどのデバイスを備え、これらのデバイスにより入力された情報をコンピュータ装置3に与える。入力装置からの信号はプロセッサ31に出力される。   The external device 5 may be an input device. The input device includes devices such as a keyboard, a mouse, and a touch panel, and gives information input by these devices to the computer device 3. A signal from the input device is output to the processor 31.

上記に、本発明の一実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   Although one embodiment of the present invention has been described above, these embodiment are presented as examples and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.

1:推定システム、11:位置データ提供装置、12:イベントデータ提供装置、13:属性データ提供装置、14:推定モデル生成装置、141:訓練用ビットマップ生成部、142:教師信号決定部、143:訓練データ提供部(記憶部)、144:推定モデル生成部(学習部)、15:推定用データ提供装置、16:推定処理装置、161:推定モデル記憶部、162:推定用ビットマップ生成部、163:推定部、164:推定結果処理部、21:推定グラフ、22:Ground Truthのグラフ、3:コンピュータ装置、31:プロセッサ、32:主記憶装置、33:補助記憶装置、34:ネットワークインタフェース、35:デバイスインタフェース、36:バス、4:通信ネットワーク、5(5A、5B):外部装置 1: estimation system, 11: position data providing device, 12: event data providing device, 13: attribute data providing device, 14: estimated model generating device, 141: training bitmap generating unit, 142: teacher signal determining unit, 143 : Training data providing unit (storage unit), 144: estimation model generation unit (learning unit), 15: estimation data providing device, 16: estimation processing device, 161: estimation model storage unit, 162: estimation bitmap generation unit 163: estimation unit, 164: estimation result processing unit, 21: estimation graph, 22: ground truth graph, 3: computer device, 31: processor, 32: main storage device, 33: auxiliary storage device, 34: network interface , 35: device interface, 36: bus, 4: communication network, 5 (5A, 5B): external device

Claims (15)

スポーツの試合状況に関する推定データを出力する推定モデルを記憶する記憶部と、
スポーツの第1時点における、試合場の各区画での選手の存在に関する第1情報を、前記推定モデルへ入力することにより、前記第1時点以降の前記スポーツの試合状況に関する推定データを得る推定部と、
を備える推定処理装置。
A storage unit for storing an estimation model for outputting estimation data regarding a sport game situation;
An estimation unit that obtains estimation data relating to the sporting situation of the sport after the first time point by inputting, to the estimation model, first information relating to the presence of players in each section of the game field at the first time point of the sport. When,
An estimation processing apparatus comprising:
前記第1情報は、複数の選手の位置情報を前記試合場の各区画を用いて表した多次元のビットマップを含み、
前記推定モデルは、畳み込みニューラルネットワークである
請求項1に記載の推定処理装置。
The first information includes a multi-dimensional bitmap representing position information of a plurality of players using each section of the game field,
The estimation processing apparatus according to claim 1, wherein the estimation model is a convolutional neural network.
前記多次元のビットマップは、試合に出場しているチームごとに別れている
請求項2に記載の推定処理装置。
The estimation processing device according to claim 2, wherein the multidimensional bitmap is separated for each team participating in the game.
前記推定部は、前記第1情報と、前記第1時点よりも前の第2時点における前記試合場の各区画での選手の存在に関する第2情報と、を用いて、前記推定データを得る
請求項1ないし3のいずれか一項に記載の推定処理装置。
The estimation unit obtains the estimation data by using the first information and second information regarding the presence of a player in each section of the game field at a second time point before the first time point. Item 4. The estimation processing device according to any one of Items 1 to 3.
前記推定モデルは、試合場の各区画での選手の存在に関する入力情報と、前記入力情報に対応する時点以降における所定のイベントの発生に関する数値で表された教師信号と、に基づく教師あり学習により生成されたものであり、
前記推定データは、前記第1時点以降の前記所定のイベントの発生に対応する数値である
請求項1ないし4のいずれか一項に記載の推定処理装置。
The estimation model is based on supervised learning based on input information related to the presence of a player in each section of the game field and a teacher signal expressed by a numerical value related to the occurrence of a predetermined event after the time corresponding to the input information. Generated
The estimation processing device according to any one of claims 1 to 4, wherein the estimation data is a numerical value corresponding to the occurrence of the predetermined event after the first time point.
前記推定モデルは、試合場の各区画での選手の存在に関する入力情報と、前記入力情報に対応する時点よりも後の時点における選手の位置を示す教師信号と、に基づく教師あり学習により生成されたものであり、
前記推定データは、前記第1時点よりも後の時点における選手の位置を示すデータである
請求項1ないし4のいずれか一項に記載の推定処理装置。
The estimated model is generated by supervised learning based on input information relating to the presence of players in each section of the game field and a teacher signal indicating the position of the player at a time point later than the time point corresponding to the input information. And
The estimation processing device according to any one of claims 1 to 4, wherein the estimation data is data indicating a position of a player at a time point later than the first time point.
前記推定モデルは、試合場の各区画での選手の存在に関する入力情報と、前記入力情報に対応する時点以降における選手以外の所定のオブジェクトの位置を示す教師信号と、に基づく教師あり学習により生成されたものであり、
前記推定データは、前記第1時点以降の前記オブジェクトの位置を示すデータである
請求項1ないし4のいずれか一項に記載の推定処理装置。
The estimation model is generated by supervised learning based on input information regarding the presence of a player in each section of the game field and a teacher signal indicating the position of a predetermined object other than the player at and after the time corresponding to the input information. It has been
The estimation processing apparatus according to claim 1, wherein the estimation data is data indicating a position of the object after the first time point.
前記第1時点における選手の位置が示されたデータから、前記第1情報を生成する生成部
をさらに備える請求項1ないし7のいずれか一項に記載の推定処理装置。
The estimation processing apparatus according to any one of claims 1 to 7, further comprising: a generation unit that generates the first information from data indicating a position of the player at the first time point.
前記推定データに基づき、前記第1情報が示す選手の位置関係を評価する評価部
さらに備える
請求項1ないし8のいずれか一項に記載の推定処理装置。
The estimation processing apparatus according to claim 1, further comprising: an evaluation unit that evaluates a positional relationship of the players indicated by the first information based on the estimation data.
前記記憶部が複数の前記推定モデルを記憶し、
前記複数の推定モデルは、試合に関する属性ごとに分類されて記憶されており、
前記推定部が、指定された属性に対応する推定モデルを抽出し、抽出された推定モデルを用いて前記推定データを得る
請求項1ないし9のいずれか一項に記載の推定処理装置。
The storage unit stores a plurality of the estimation models,
The plurality of estimation models are classified and stored for each attribute relating to the game,
The estimation processing device according to any one of claims 1 to 9, wherein the estimation unit extracts an estimation model corresponding to a specified attribute, and obtains the estimation data using the extracted estimation model.
スポーツの第1時点における、試合場の各区画での選手の存在に関する第1情報と、前記第1時点の前記スポーツの試合状況に関する教師信号と、に基づく学習を行うことにより、前記第1時点以降の前記スポーツの試合状況に関する推定データを出力する推定モデルを生成する推定モデル生成部と、
を備える
推定モデル生成装置。
The first time point by performing learning based on the first information on the presence of the players in each section of the game field at the first time point of the sport and the teacher signal regarding the game situation of the sport at the first time point. An estimation model generation unit for generating an estimation model for outputting estimation data relating to the subsequent game situation of the sport;
An estimation model generation device comprising:
前記第1時点における教師信号は、
前記第1時点以降における所定のイベントの発生に関する数値と、
前記第1時点よりも後の時点における選手の位置を示す情報と、
前記第1時点以降における選手以外の所定のオブジェクトの位置と、
のいずれかである
請求項11に記載の推定モデル生成装置。
The teacher signal at the first time point is
A numerical value related to occurrence of a predetermined event after the first time point;
Information indicating the position of the player at a time later than the first time;
The position of a predetermined object other than the player after the first time point;
The estimated model generation device according to claim 11.
ニューラルネットワークに基づく学習済みの推定モデルであって、
スポーツの第1時点における、試合場の各区画での選手の存在に関する第1情報が前記推定モデルの入力層に入力されると、前記推定モデルの各中間層において学習済みのパラメータに基づく演算を行い、前記推定モデルの出力層から、前記第1時点以降の前記スポーツの試合状況に関する推定データを出力するように、コンピュータを機能させる
推定モデル。
A learned estimation model based on a neural network,
When the first information regarding the presence of players in each section of the game field at the first time point of the sport is input to the input layer of the estimation model, the calculation based on the learned parameters in each intermediate layer of the estimation model is performed. An estimation model that causes the computer to function so as to output, from the output layer of the estimation model, estimation data related to the sports game situation after the first time point.
スポーツの試合状況に関する推定データを出力する推定モデルを取得するステップと、
スポーツの第1時点における、試合場の各区画での選手の存在に関する第1情報を、前記推定モデルへ入力することにより、前記第1時点以降の前記スポーツの試合状況に関する推定データを得るステップと、
推定方法。
Obtaining an estimation model that outputs estimation data relating to a sports game situation;
Obtaining estimated data relating to the sporting situation of the sport after the first time point by inputting, to the estimating model, first information relating to the presence of players in each section of the game field at the first time point of the sport; ,
Estimation method.
スポーツの試合状況に関する推定データを出力する推定モデルを取得するステップと、
スポーツの第1時点における、試合場の各区画での選手の存在に関する第1情報を、前記推定モデルへ入力することにより、前記第1時点以降の前記スポーツの試合状況に関する推定データを得るステップと、
コンピュータに実行させるためのプログラム。
Obtaining an estimation model that outputs estimation data relating to a sports game situation;
Obtaining estimated data relating to the sporting situation of the sport after the first time point by inputting, to the estimating model, first information relating to the presence of players in each section of the game field at the first time point of the sport; ,
A program that causes a computer to execute.
JP2018069194A 2018-03-30 2018-03-30 Estimation processing device, estimation model generation device, estimation model, estimation method, and program Pending JP2019179459A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018069194A JP2019179459A (en) 2018-03-30 2018-03-30 Estimation processing device, estimation model generation device, estimation model, estimation method, and program
PCT/JP2019/011871 WO2019188714A1 (en) 2018-03-30 2019-03-20 Estimation processing device, estimation model generation device, estimation model, estimation method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018069194A JP2019179459A (en) 2018-03-30 2018-03-30 Estimation processing device, estimation model generation device, estimation model, estimation method, and program

Publications (1)

Publication Number Publication Date
JP2019179459A true JP2019179459A (en) 2019-10-17

Family

ID=68058192

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018069194A Pending JP2019179459A (en) 2018-03-30 2018-03-30 Estimation processing device, estimation model generation device, estimation model, estimation method, and program

Country Status (2)

Country Link
JP (1) JP2019179459A (en)
WO (1) WO2019188714A1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021140827A1 (en) * 2020-01-10 2021-07-15 ジャングルX株式会社 Information processing device, information processing method, and information processing program
JP2022520498A (en) * 2019-12-30 2022-03-30 シャンハイ センスタイム リンガン インテリジェント テクノロジー カンパニー リミテッド Image processing methods, devices, storage media and electronic devices
WO2023170793A1 (en) * 2022-03-08 2023-09-14 日本電信電話株式会社 Sports play state evlauation device, sports play state evaluation method, and sports play state evaluation program

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7373352B2 (en) * 2019-10-10 2023-11-02 日本放送協会 Location estimation device, location learning device and program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4621910B2 (en) * 2005-01-26 2011-02-02 国立大学法人北海道大学 Dominance level determination device and dominance level determination method
JP5276609B2 (en) * 2010-02-04 2013-08-28 日本放送協会 Image processing apparatus and program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022520498A (en) * 2019-12-30 2022-03-30 シャンハイ センスタイム リンガン インテリジェント テクノロジー カンパニー リミテッド Image processing methods, devices, storage media and electronic devices
JP7105383B2 (en) 2019-12-30 2022-07-22 シャンハイ センスタイム リンガン インテリジェント テクノロジー カンパニー リミテッド Image processing method, device, storage medium and electronic equipment
WO2021140827A1 (en) * 2020-01-10 2021-07-15 ジャングルX株式会社 Information processing device, information processing method, and information processing program
JP2021111139A (en) * 2020-01-10 2021-08-02 ジャングルX株式会社 Information processing device, information processing method and information processing program
WO2023170793A1 (en) * 2022-03-08 2023-09-14 日本電信電話株式会社 Sports play state evlauation device, sports play state evaluation method, and sports play state evaluation program

Also Published As

Publication number Publication date
WO2019188714A1 (en) 2019-10-03

Similar Documents

Publication Publication Date Title
WO2019188714A1 (en) Estimation processing device, estimation model generation device, estimation model, estimation method, and program
JP6733738B2 (en) MOTION RECOGNITION DEVICE, MOTION RECOGNITION PROGRAM, AND MOTION RECOGNITION METHOD
US20200106968A1 (en) Recording medium recording video generation program, method of generating video, and information processing device
WO2019225415A1 (en) Ball game video analysis device and ball game video analysis method
KR102364753B1 (en) A method for evaluating a player , system and devce performing the same
JP6677319B2 (en) Sports motion analysis support system, method and program
EP4040387A1 (en) Exercise recognition method, exercise recognition program, and information processing device
KR20240049129A (en) Method and apparatus for evaluating multiple criteria using artificial intelligence in taekwondo competition
US20220222975A1 (en) Motion recognition method, non-transitory computer-readable recording medium and information processing apparatus
JP7246005B2 (en) Mobile tracking device and mobile tracking method
JP6432523B2 (en) Analysis device, recording medium, and analysis method
JP7248137B2 (en) Evaluation method, evaluation program and information processing device
Tani et al. Sports play visualization system for American football
JP2021081921A (en) Data processing device, data processing method, program, and model
JP2020136825A (en) Data generation device, data processing device, data generation model, data generation method, and program
JP6553545B2 (en) Attack pattern extraction apparatus, attack pattern display apparatus, attack pattern extraction method, attack pattern display method, and attack pattern extraction program
Spencer et al. A method for evaluating player decision-making in the Australian football league
EP3960257A1 (en) Data processing device, data processing method, and program
EP4095794A1 (en) Exercise recognition method, exercise recognition program, and information processing device
KR102518635B1 (en) Vision AI and IOT based interactive sports system and method
CN110457769A (en) A kind of simulator for ping-pong contest tactics
CN109758758A (en) A kind of tactics based on sportsman's feature draft method
JP2021022153A (en) Data processor, method for processing data, and program
KR102619792B1 (en) System and method for judging martial arts using image information based on artificial intelligence
JP7239231B1 (en) Judgment system, judgment method and computer program