JP6720587B2 - 映像処理装置、映像処理方法および映像処理プログラム - Google Patents

映像処理装置、映像処理方法および映像処理プログラム Download PDF

Info

Publication number
JP6720587B2
JP6720587B2 JP2016044896A JP2016044896A JP6720587B2 JP 6720587 B2 JP6720587 B2 JP 6720587B2 JP 2016044896 A JP2016044896 A JP 2016044896A JP 2016044896 A JP2016044896 A JP 2016044896A JP 6720587 B2 JP6720587 B2 JP 6720587B2
Authority
JP
Japan
Prior art keywords
video
information
event
area
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016044896A
Other languages
English (en)
Other versions
JP2017163286A (ja
Inventor
矢吹 彰彦
彰彦 矢吹
佐々木 和雄
和雄 佐々木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2016044896A priority Critical patent/JP6720587B2/ja
Priority to US15/425,290 priority patent/US10600444B2/en
Publication of JP2017163286A publication Critical patent/JP2017163286A/ja
Application granted granted Critical
Publication of JP6720587B2 publication Critical patent/JP6720587B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B69/00Training appliances or apparatus for special sports
    • A63B69/0071Training appliances or apparatus for special sports for basketball
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B71/00Games or sports accessories not covered in groups A63B1/00 - A63B69/00
    • A63B71/06Indicating or scoring devices for games or players, or for other sports activities
    • A63B71/0619Displays, user interfaces and indicating devices, specially adapted for sport equipment, e.g. display mounted on treadmills
    • A63B71/0622Visual, audio or audio-visual systems for entertaining, instructing or motivating the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • G06V20/42Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/49Segmenting video sequences, i.e. computational techniques such as parsing or cutting the sequence, low-level clustering or determining units such as shots or scenes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2220/00Measuring of physical parameters relating to sporting activity
    • A63B2220/80Special sensors, transducers or devices therefor
    • A63B2220/806Video cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Physical Education & Sports Medicine (AREA)
  • General Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Human Computer Interaction (AREA)
  • Television Signal Processing For Recording (AREA)
  • Telephonic Communication Services (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、映像処理装置等に関する。
各種スポーツの選手やコーチ、監督等は、選手のスキルや、チームの戦術の向上を図るために、試合の映像を撮影し、参照することがある。近年では、複数のカメラを備えたコートが普及しており、かかるコートで試合を行えば、試合後に、様々な角度から選手やチーム全体の行動を映像で確認することができる。
特開2005−167517号公報 特開平7−306012号公報 特開2015−177470号公報
しかしながら、上述した従来技術では、特定のイベントに関連した映像情報を生成することができないという問題がある。
コート上の各カメラが撮影した複数の映像情報のうち、利用者にとって有用な特定のシーンを含む映像情報は限られている。例えば、特定のシーンは、選手のシュートシーン等である。
ここで、特定のシーンを追い続けた映像情報を作成することができれば、他の映像情報を参照する手間が省け、便利である。しかし、特定のシーンを撮影するカメラは動的に変化し、特定のシーンが発生するタイミングも事前に予想できるものではないため、利用者の要望に応じて、編集者が、各カメラが撮影した全ての映像情報を参照し、手作業で、特定なシーンを追い続けた映像情報を作成することが一般的に行われており、編集者にかかる負担が大きかった。
1つの側面では、本発明は、特定のイベントに関連した映像情報を生成することができる映像処理装置、映像処理方法および映像処理プログラムを提供することを目的とする。
第1の案では、映像処理装置は、受付部と、抽出部とを有する。受付部は、複数のカメラによってそれぞれ異なる領域が撮影される競技エリアでイベントが発生したか否かの情報を受け付ける。抽出部は、イベントが発生した際に、イベントが発生した競技エリア上の領域を撮影範囲に含むカメラを判定し、判定したカメラが撮影した映像情報からイベントが発生した時刻の部分映像を抽出する。
特定のイベントに関連した映像情報を生成することができる。
図1は、本実施例1に係るシステムの構成を示す図である。 図2は、端末の表示画面の一例を示す図である。 図3は、本実施例1に係る映像処理装置の処理を説明するための図(1)である。 図4は、本実施例1に係る映像処理装置の処理を説明するための図(2)である。 図5は、本実施例1に係る映像処理装置の構成を示す機能ブロック図である。 図6は、本実施例1に係る映像テーブルのデータ構造の一例を示す図である。 図7は、トラッキングテーブルのデータ構造の一例を示す図である。 図8は、イベントテーブルのデータ構造の一例を示す図である。 図9は、本実施例1に係る映像処理装置の処理手順を示すフローチャートである。 図10は、本実施例2に係るシステムの構成を示す図である。 図11は、本実施例2に係る映像処理装置の処理を説明するための図である。 図12は、本実施例2に係る映像処理装置の構成を示す機能ブロック図である。 図13は、本実施例2に係る映像テーブルのデータ構造の一例を示す図である。 図14は、本実施例2に係るイベントテーブルのデータ構造の一例を示す図である。 図15は、本実施例2に係る映像処理装置の処理手順を示すフローチャートである。 図16は、本実施例3に係るシステムの構成を示す図である。 図17は、本実施例3に係る映像処理装置の構成を示す機能ブロック図である。 図18は、本実施例3に係る映像テーブルのデータ構造の一例を示す図である。 図19は、本実施例3に係るイベントテーブルのデータ構造の一例を示す図である。 図20は、シュートシーン検出部の処理を説明するための図である。 図21は、本実施例3に係る映像処理装置の処理手順を示すフローチャートである。 図22は、本実施例4に係るシステムの構成を示す図である。 図23は、本実施例4に係る映像処理装置の処理を説明するための図である。 図24は、本実施例4に係る映像処理装置の構成を示す機能ブロック図である。 図25は、本実施例4に係る映像処理装置の処理手順を示すフローチャートである。 図26は、映像処理プログラムを実行するハードウェア構成の一例を示す図である。
以下に、本願の開示する映像処理装置、映像処理方法および映像処理プログラムの実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。
図1は、本実施例1に係るシステムの構成を示す図である。図1に示すように、このシステムは、カメラ10a,10b,10c,10dと、端末50と、映像処理装置100とを有する。カメラ10a〜10dと、映像処理装置100とは相互に接続される。端末50と、映像処理装置100とは相互に接続される。実施例1において、以下の説明では、カメラ10a〜10dをまとめて、適宜、カメラ10と表記する。
カメラ10は、撮影範囲の映像を撮影し、撮影した映像の情報を、映像処理装置100に送信する装置である。映像の情報は、複数の画像が連続する情報である。以下の説明では、映像の情報を、映像情報と表記する。カメラ10は、各種の競技を行うコート20上に配置される。
カメラ10aは、コート20上のエリアAを撮影範囲に含むカメラである。カメラ10bは、コート20上のエリアBを撮影範囲に含むカメラである。カメラ10cは、コート20上のエリアCを撮影範囲に含むカメラである。カメラ10dは、コート20上のエリアDを撮影範囲に含むカメラである。
端末50は、利用者がイベント情報を入力する場合に使用する端末装置であり、タブレット端末、スマートフォン等に対応する。端末50は、イベント情報を、映像処理装置100に出力する。イベント情報は、選手識別情報と、行動識別情報と、時刻とを対応付けた情報である。
選手識別情報は、選手を一意に識別する情報である。本実施例1では、選手識別情報を、チーム名と、選手の背番号との組により表現する。行動識別情報は、選手の行動を一意に識別する情報である。例えば、行動識別情報には、シュート、アシスト、インターセプト、カットイン、ポストアップが含まれる。時刻は、利用者がイベント情報を入力した時刻を示す情報である。
図2は、端末の表示画面の一例を示す図である。例えば、利用者は、チームAの背番号(4)の選手がシュートしたイベント情報を端末50に入力する場合には、図2に示すように、チームAに関連付けられたボタン「4」と、行動に関連付けられたボタン「シュート」を押下する。また、端末50は、自装置のタイマによって、イベント情報が入力された時刻を判定する。端末50は、イベント情報を、映像処理装置100に出力する。
利用者は、上記に示す操作を繰り返し実行し、端末50は、操作を受け付ける度に、イベント情報を、映像処理装置100に送信する。
映像処理装置100は、端末50から受け付けるイベント情報に関連する映像を、カメラ10から取得する各映像情報から抽出し、抽出した映像を連結する装置である。図3および図4は、本実施例1に係る映像処理装置の処理を説明するための図である。
映像処理装置100は、周知のトラッキング技術を用いて、時刻毎に、各選手がコート20上のどのエリアに含まれているのかを判定する。例えば、チームAの選手を白丸で表し、チームBの選手を黒丸で表す。図3に示す例では、映像処理装置100は、「時刻t3」において、チームAの背番号(1)、(2)、(3)の選手および、チームBの背番号(2)の選手が、エリアAに含まれていると判定する。また、映像処理装置100は、時刻t3において、チームAの背番号(3)、(4)、(5)の選手および、チームBの背番号(1)、(4)、(5)の選手が、エリアBに含まれていると判定する。
図3に示す状況下において、利用者は、チームAの背番号(4)の選手のシュートシーンを記録したいと考え、端末50を操作して、「チームAの背番号(4)、シュート」を入力する。そうすると、端末50は、イベント情報「チームAの背番号(4)、シュート、時刻t3」を、映像処理装置100に出力する。
映像処理装置100は、イベント情報「チームAの背番号(4)、シュート、時刻t3」に関連する映像を、カメラ10から取得する各映像情報から抽出する。例えば、「時刻t3」に「チームAの背番号(4)」の選手が存在していたエリアは「エリアC」であり、エリアCを撮影範囲に含むカメラ10は、カメラ10cである。このため、映像処理装置100は、図4に示すように、部分映像30cを抽出する。部分映像30cは、カメラ10cが撮影した映像情報に含まれる映像であり、時刻t3−M(s)〜時刻t3+N(s)の映像である。M,Nの数値は、利用者が適宜設定可能な数値である。
映像処理装置100は、イベント情報を受け付ける度に、イベント情報に対応する部分映像を抽出し、抽出した各部分映像を連結することで、イベント情報に関連した映像情報を生成する。
図5は、本実施例1に係る映像処理装置の構成を示す機能ブロック図である。図5に示すように、映像処理装置100は、インタフェース部110と、入力部120と、表示部130と、記憶部140と、制御部150とを有する。
インタフェース部110は、カメラ10および端末50と有線または無線によって接続し、データを送受信する処理部である。インタフェース部110は、カメラ10から、映像情報を受信し、受信した映像情報を、映像キャプチャ部151に出力する。また、インタフェース部110は、端末50からイベント情報を受信し、受信したイベント情報を、受付部153に出力する。後述する制御部150は、インタフェース部110を介して、カメラ10、端末50からデータを受信する。
入力部120は、各種の情報を映像処理装置100に入力するための入力装置である。入力部120は、例えば、キーボードやマウス、タッチパネル、入力ボタン等に対応する。
表示部130は、制御部150から出力される情報を表示する表示装置である。例えば、表示部130は、ディスプレイや、タッチパネル等に対応する。
記憶部140は、映像テーブル141、トラッキングテーブル142、イベントテーブル143、映像情報144を有する。記憶部140は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ(Flash Memory)などの半導体メモリ素子、またはハードディスク、光ディスクなどの記憶装置に対応する。
映像テーブル141は、カメラ10から受信する映像情報を格納するテーブルである。図6は、本実施例1に係る映像テーブルのデータ構造の一例を示す図である。図6に示すように、この映像テーブル141は、カメラ識別情報と、エリア識別情報と、映像情報とを対応付ける。カメラ識別情報は、カメラ10を一意に識別する情報である。エリア識別情報は、カメラ10の撮影範囲に対応するエリアを一意に識別する情報である。映像情報は、カメラ10によって撮影された映像情報である。例えば、カメラ10aの撮影範囲は、エリアAである旨が、図6の映像テーブル141に登録されている。
トラッキングテーブル142は、各選手のトラッキング情報を保持するテーブルである。図7は、トラッキングテーブルのデータ構造の一例を示す図である。図7に示すように、トラッキングテーブル142は、選手識別情報と、トラッキング情報とを対応付ける。選手識別情報は、選手を一意に識別する情報である。トラッキング情報は、選手識別情報によって識別される選手が、各エリアA〜Dのうち、いずれのエリアに存在するのかを、時刻毎に示す情報である。
イベントテーブル143は、端末50から受け付ける各イベント情報を保持するテーブルである。図8は、イベントテーブルのデータ構造の一例を示す図である。図8に示すように、イベントテーブル143は、時刻と、選手識別情報と、行動識別情報とを対応付ける。時刻、選手識別情報、行動識別情報に関する説明は、上述したイベント情報において説明した内容と同様である。
映像情報144は、イベント情報に対応する部分映像を連結することにより生成される映像情報である。
制御部150は、映像キャプチャ部151、トラッキング部152、受付部153、抽出部154、連結部155を有する。制御部150は、例えば、ASIC(Application Specific Integrated Circuit)や、FPGA(Field Programmable Gate Array)などの集積装置に対応する。また、制御部150は、例えば、CPUやMPU(Micro Processing Unit)等の電子回路に対応する。
映像キャプチャ部151は、インタフェース部110を介して、カメラ10から映像情報を受信する処理部である。映像キャプチャ部151は、カメラ識別情報と、映像情報とを対応付けて、映像テーブル141に格納する。なお、カメラ10から取得する映像情報には、映像情報の送信元を示すカメラ識別情報が付与されているものとする。
トラッキング部152は、周知技術のトラッキング技術を用いて、映像テーブル141に格納された映像情報を解析し、時刻毎に、各選手がコート20上のどのエリアに含まれているのかを判定することで、トラッキング情報を生成する処理部である。周知技術は、例えば、「Kentaro TSUJIほか<Robus Human Tracking Using Occlusion-free Images from Multiple Video Cameras>IAPR Conference on Machine Vision Applications June,13-15,2011,Nara,JAPAN」を用いる。トラッキング部152は、選手識別情報と、トラッキング情報とを対応付けて、トラッキングテーブル142に格納する。
受付部153は、端末50からイベント情報が発生したか否かの情報を受け付ける処理部である。例えば、受付部153は、端末50かイベント情報を受信した場合に、イベントが発生したと判定する。受付部153は、イベント情報を、イベントテーブル143に登録する。
抽出部154は、イベントが発生した場合に、イベントが発生したコート20上のエリアを撮影範囲に含むカメラ10を判定し、判定したカメラが撮影した映像情報から、イベントが発生した時刻の部分映像を抽出する処理部である。抽出部154は、抽出した部分映像の情報を、連結部155に出力する。抽出部154は、イベントが発生する度に、上記処理を繰り返し実行する。
例えば、抽出部154は、未選択のイベント情報を、イベントテーブル143から取得し、イベント情報に含まれる選手識別情報および時刻と、トラッキングテーブル142のトラッキング情報とを比較する。また、抽出部154は、上記比較により、イベント情報の時刻に、選手識別情報によって識別される選手が位置するエリアを特定し、特定したエリアと、映像テーブル141とを比較して、特定したエリアを撮影範囲に含むカメラを特定する。
抽出部154は、特定したカメラ10のカメラ識別情報に対応する映像情報を映像テーブル141から取得し、取得した映像情報から部分映像を抽出する。部分映像は、図4で説明したように、イベント情報の時刻tを基準として、時刻t−M(s)〜時刻t+N(s)の映像となる。抽出部154は、イベントテーブル143に格納された各イベント情報に対して、上記処理を繰り返し実行することで、複数の部分映像の情報を抽出し、連結部155に出力する。また、抽出部154は、各部分映像に、該当するイベント情報をタグとして付与しても良い。
連結部155は、抽出部154によって抽出された部分映像を連結することで、映像情報144を生成する処理部である。連結部155は、各部分映像をどのように連結しても良い。例えば、連結部155は、時系列順に、各部分映像を連結しても良いし、選手識別情報毎に部分映像を連結しても良いし、行動種別情報毎に部分映像を連結しても良い。連結部155は、映像情報144を、記憶部140に格納する。
続いて、本実施例1に係る映像処理装置100の処理手順について説明する。図9は、本実施例1に係る映像処理装置の処理手順を示すフローチャートである。図9に示すように、映像処理装置100の受付部153は、イベント情報を受け付けたか否かを判定する(ステップS101)。受付部153は、イベント情報を受け付けていない場合には(ステップS101,No)、ステップS101に移行する。
一方、受付部153は、イベント情報を受け付けた場合には(ステップS101,Yes)、イベント情報をイベントテーブル143に格納する(ステップS102)。受付部153は、イベント情報の受け付けを終了していない場合には(ステップS103,No)、ステップS101に移行する。受付部153は、イベント情報の受け付けを終了した場合には(ステップS103,Yes)、ステップS104に移行する。
映像処理装置100は、抽出部154は、未選択のイベント情報を、イベントテーブル143から選択する(ステップS104)。抽出部154は、イベント情報に対応する部分情報を、映像テーブル141から抽出する(ステップS105)。抽出部154は、全てのイベント情報を選択していない場合には(ステップS106,No)、ステップS104に移行する。
一方、抽出部154は、全てのイベント情報を選択した場合には(ステップS106,Yes)、ステップS107に移行する。映像処理装置100の連結部155は、各部分映像を連結して、映像情報144を生成する(ステップS107)。
次に、本実施例1に係る映像処理装置100の効果について説明する。映像処理装置100は、端末50からイベント情報を受信した場合に、イベントが発生したと判定し、イベント情報に対応する部分映像を抽出して、映像情報144を生成する。このため、イベント情報に関連する部分情報を含んだ映像情報を生成することができる。
なお、本実施例1に係る映像処理装置100は、イベント情報に、選手識別情報と、行動識別情報と、時刻とが含まれる場合について説明したが、これに限定されるものではない。例えば、利用者は、選手識別情報に加えて、選手識別情報に対応する選手がどのエリアに存在するかの情報を、更に選択して、映像処理装置100に通知しても良い。この場合には、イベント情報には、選手識別情報、行動識別情報、時刻、エリア識別情報が含まれる。このように、エリア識別情報が、イベント情報に含まれていれば、映像処理装置100は、トラッキング情報が無くても、イベント情報の時刻に、選手識別情報によって識別される選手が位置するエリアを特定することができる。
図10は、本実施例2に係るシステムの構成を示す図である。図10に示すように、このシステムは、カメラ10a,10bと、映像処理装置200とを有する。カメラ10a,10bと、映像処理装置200とは相互に接続される。実施例2において、以下の説明では、カメラ10a,10bをまとめて、適宜、カメラ10と表記する。
カメラ10は、撮影範囲の映像を撮影し、撮影した映像の情報を、映像処理装置200に送信する装置である。映像の情報は、時刻毎の画像が連続する情報である。以下の説明では、映像の情報を、映像情報と表記する。カメラ10は、各種の競技を行うコート20上に配置される。
カメラ10aは、コート20上のエリアaを撮影範囲に含むカメラである。カメラ10bは、コート20上のエリアbを撮影範囲に含むカメラである。
映像処理装置200は、エリアaに存在する選手数と、エリアbに存在する選手数とを比較し、選手数の多い側のエリアを撮影するカメラ10の映像を抽出し、抽出した映像を連結する装置である。
図11は、本実施例2に係る映像処理装置の処理を説明するための図である。例えば、時刻t1〜t2の間に、エリアaに8人の選手が存在し、エリアbに2人の選手が存在する。このため、エリアaの選手数が、エリアbの選手数よりも多いため、映像処理装置200は、時刻t1〜t2の間は、カメラ10aが撮影した部分映像Aを抽出する。
続いて、時刻t2〜t3の間に、エリアaに1人の選手が存在し、エリアbに9人の選手が存在する。このため、エリアbの選手数が、エリアaの選手数よりも多いため、映像処理装置200は、時刻t2〜t3の間は、カメラ10bが撮影した部分映像Bを抽出する。映像処理装置200は、部分映像Aと部分映像Bとを連結して、映像情報を生成する。
図12は、本実施例2に係る映像処理装置の構成を示す機能ブロック図である。図12に示すように、映像処理装置200は、インタフェース部210と、入力部220と、表示部230と、記憶部240と、制御部250とを有する。
インタフェース部210は、カメラ10と有線または無線によって接続し、データを送受信する処理部である。インタフェース部210は、カメラ10から、映像情報を受信し、受信した映像情報を、映像キャプチャ部251に出力する。
入力部220は、各種の情報を映像処理装置200に入力するための入力装置である。入力部220は、例えば、キーボードやマウス、タッチパネル、入力ボタン等に対応する。
表示部230は、制御部250から出力される情報を表示する表示装置である。例えば、表示部230は、ディスプレイや、タッチパネル等に対応する。
記憶部240は、映像テーブル241、イベントテーブル242、映像情報243を有する。記憶部240は、例えば、RAM、ROM、フラッシュメモリなどの半導体メモリ素子、またはハードディスク、光ディスクなどの記憶装置に対応する。
映像テーブル241は、カメラ10から受信する映像情報を格納するテーブルである。図13は、本実施例2に係る映像テーブルのデータ構造の一例を示す図である。図13に示すように、この映像テーブル241は、カメラ識別情報と、エリア識別情報と、映像情報とを対応付ける。カメラ識別情報は、カメラ10を一意に識別する情報である。エリア識別情報は、カメラ10の撮影範囲に対応するエリアを一意に識別する情報である。映像情報は、カメラ10によって撮影された映像情報である。例えば、カメラ10aの撮影範囲は、エリアaである旨が、図13の映像テーブル241に登録されている。
イベントテーブル242は、イベント情報を保持するテーブルである。ここで、本実施例2では、一例として、映像処理装置200は、エリアaの選手数とエリアbの選手数との大小関係に変化が生じたタイミングにおいてに、イベントが発生したと判定する。また、イベント情報は、時間と、エリア識別情報とを対応付けた情報である。図14は、本実施例2に係るイベントテーブルのデータ構造の一例を示す図である。時間は、今回のイベントが発生した時刻から、次回のイベントが発生する時刻までの時間を示す情報である。エリア識別情報は、該当する時間において、選手数が多い側のエリアを一意に識別する情報である。例えば、図14において、時間t1〜t2において、エリアaの選手数の方が、エリアbの選手数よりも多い旨が示される。また、時刻t2において、エリアaの選手数とエリアbの選手数との大小関係が切り替わり、時間t2〜t3において、エリアbの選手数の方が、エリアaの選手数よりも多い旨が示される。
映像情報243は、イベント情報に対応する部分映像を連結することにより生成される映像情報である。
制御部250は、映像キャプチャ部251、受付部252、抽出部253、連結部254を有する。制御部250は、例えば、ASICや、FPGAなどの集積装置に対応する。また、制御部250は、例えば、CPUやMPU等の電子回路に対応する。
映像キャプチャ部251は、インタフェース部210を介して、カメラ10から映像情報を受信する処理部である。映像キャプチャ部251は、カメラ識別情報と、映像情報とを対応付けて、映像テーブル241に格納する。なお、カメラ10から取得する映像情報には、映像情報の送信元を示すカメラ識別情報が付与されているものとする。
受付部252は、映像テーブル241の各映像情報を参照し、エリアaの選手数とエリアbの選手数との大小関係に変化が生じた時刻において、イベントの発生を受け付けたと判定する処理部である。受付部252は、イベントの発生を受け付けた場合に、イベント情報を生成し、イベント情報をイベントテーブル242に登録する。イベント情報は、時間と、エリア識別情報とを対応付けた情報である。時間は、今回のイベントが発生した時刻から、次回のイベントが発生する時刻までの時間を示す情報である。エリア識別情報は、該当する時間において、選手数が多い側のエリアを一意に識別する情報である。なお、受付部252は、一回目のイベントの発生を受け付けた場合には、次のイベントが発生するまで、イベント情報を生成する処理を待機する。
受付部252は、エリアaの選手数とエリアbの選手数との大小関係をどのように判定しても良い。例えば、受付部252は、テンプレートマッチングを行って、カメラ10a、10bが撮影した各映像情報から、選手を検出し、検出した選手の数を計数することで、選手数の比較を行っても良い。また、受付部252は、実施例1で説明したトラッキング処理を実行して、エリアa,bに存在する選手数を計数しても良い。
抽出部253は、イベントが発生した場合に、イベントが発生したコート20上のエリアを撮影範囲に含むカメラ10を判定し、判定したカメラが撮影した映像情報から、イベントが発生した時間の部分映像を抽出する処理部である。抽出部253は、抽出した部分映像の情報を、連結部254に出力する。抽出部254は、イベントが発生する度に、上記処理を繰り返し実行する。
例えば、抽出部253は、未選択のイベント情報を、イベントテーブル242から取得する。抽出部253は、イベント情報に含まれるエリア識別情報に対応する映像情報を、映像テーブルから取得する。また、抽出部253は、取得した映像情報から、イベント情報に含まれる時間の部分映像を抽出する。抽出部253は、イベントテーブル242に格納された各イベント情報に対して、上記処理を繰り返し実行することで、複数の部分映像の情報を抽出し、連結部254に出力する。
連結部254は、抽出部253によって抽出された部分映像を連結することで、映像情報243を生成する処理部である。連結部254は、各部分映像をどのように連結しても良い。例えば、連結部254は、時系列順に、各部分映像を連結しても良い。連結部254は、映像情報243を、記憶部240に格納する。
続いて、本実施例2に係る映像処理装置200の処理手順について説明する。図15は、本実施例2に係る映像処理装置の処理手順を示すフローチャートである。図15に示すように、映像処理装置200の受付部252は、エリアaとエリアbとの選手数のカウントを開始する(ステップS201)。
受付部252は、エリアaの選手数とエリアbの選手数とを基にして、イベントテーブル242を更新する(ステップS202)。ステップS202において、受付部252は、映像テーブル241の各映像情報を参照し、エリアaの選手数とエリアbの選手数との大小関係に変化が生じた時刻において、イベントの発生を受け付けたと判定する。また、受付部252は、イベントの発生を受け付けた場合に、イベント情報を生成し、イベント情報をイベントテーブル242に登録する。
受付部252は、イベントテーブル242の更新を終了するか否かを判定する(ステップS203)。受付部252は、イベントテーブル242の更新を終了しない場合には(ステップS203,No)、ステップS202に移行する。受付部252は、イベントテーブル242の更新を終了する場合には(ステップS203,Yes)、ステップS204に移行する。
映像処理装置200の抽出部253は、未選択のイベント情報を、イベントテーブル242から選択する(ステップS204)。抽出部253は、イベント情報に対応する部分情報を、映像テーブル241から抽出する(ステップS205)。抽出部253は、全てのイベント情報を選択していない場合には(ステップS206,No)、ステップS204に移行する。
一方、抽出部253は、全てのイベント情報を選択した場合には(ステップS206,Yes)、ステップS207に移行する。映像処理装置200の連結部254は、各部分映像を連結して、映像情報243を生成する(ステップS207)。
次に、本実施例2に係る映像処理装置200の効果について説明する。映像処理装置200は、エリアaの選手数とエリアbの選手数との大小関係に変化が生じた時刻において、イベントが発生したと判定し、各エリアa,bのうち、選手数の多いエリアの部分映像を抽出して、映像情報243を生成する。このため、多くの選手がプレーする映像情報を効率的に生成することができる。
図16は、本実施例3に係るシステムの構成を示す図である。図16に示すように、このシステムは、カメラ10a、10b、10c、10d,20a,20bと、映像処理装置300とを有する。カメラ10a〜10d,20a,20bと、映像処理装置300とは相互に接続される。実施例3において、以下の説明では、カメラ10a〜10dをまとめて、カメラ10と表記する。カメラ20a,20bをまとめて、カメラ25と表記する。
カメラ10は、撮影範囲の映像を撮影し、撮影した映像の情報を、映像処理装置300に送信する装置である。映像の情報は、時刻毎の画像が連続する情報である。以下の説明では、映像の情報を、映像情報と表記する。カメラ10は、各種の競技を行うコート20上に配置される。
カメラ10aは、コート20上のエリアAを撮影範囲に含むカメラである。カメラ10bは、コート20上のエリアBを撮影範囲に含むカメラである。カメラ10cは、コート20上のエリアCを撮影範囲に含むカメラである。カメラ10dは、コート20上のエリアDを撮影範囲に含むカメラである。
カメラ25は、バスケットゴール等の近辺に設置され、シュートされたボールだけが通過する部分領域が撮影範囲に含まれるように設定される。カメラ25は、撮影範囲の映像を撮影し、撮影した映像の情報を、映像処理装置300に送信する。
映像処理装置300は、選手によるシュートシーンをカメラ25の映像情報を基に検出する。映像処理装置300は、シュートシーンを検出した場合に、イベントが発生したと判定し、イベントが発生したエリアを撮影範囲に含むカメラ10を判定し、判定したカメラが撮影した映像情報からイベントが発生した時刻の部分映像を抽出し、抽出した部分映像を連結する。
図17は、本実施例3に係る映像処理装置の構成を示す機能ブロック図である。図17に示すように、この映像処理装置300は、インタフェース部310と、入力部320と、表示部330と、記憶部340と、制御部350とを有する。
インタフェース部310は、カメラ10,20と有線または無線によって接続し、データを送受信する処理部である。インタフェース部310は、カメラ10,20から、映像情報を受信し、受信した映像情報を、映像キャプチャ部351に出力する。
入力部320は、各種の情報を映像処理装置300に入力するための入力装置である。入力部320は、例えば、キーボードやマウス、タッチパネル、入力ボタン等に対応する。
表示部330は、制御部350から出力される情報を表示する表示装置である。例えば、表示部330は、ディスプレイや、タッチパネル等に対応する。
記憶部340は、映像テーブル341、イベントテーブル342、映像情報343を有する。記憶部340は、例えば、RAM、ROM、フラッシュメモリなどの半導体メモリ素子、またはハードディスク、光ディスクなどの記憶装置に対応する。
映像テーブル341は、カメラ10,20から受信する映像情報を格納するテーブルである。図18は、本実施例3に係る映像テーブルのデータ構造の一例を示す図である。図18に示すように、この映像テーブル341は、カメラ識別情報と、エリア識別情報と、映像情報とを対応付ける。カメラ識別情報は、カメラ10,20を一意に識別する情報である。エリア識別情報は、カメラ10,20の撮影範囲に対応するエリアを一意に識別する情報である。映像情報は、カメラ10,20によって撮影された映像情報である。図18に示すカメラ20a,20bの映像情報は、後述するシュートシーンを検出する場合に用いられる。
イベントテーブル342は、イベント情報を保持するテーブルである。ここで、本実施例3では、一例として、映像処理装置300が、シュートシーンを検出したタイミングにおいて、イベントが発生したと判定する。また、イベント情報は、時刻と、エリア識別情報とを対応付けた情報である。図19は、本実施例3に係るイベントテーブルのデータ構造の一例を示す図である。時刻は、シュートシーンの発生したタイミングを示すものである。エリア識別情報は、シュートを放った選手が位置するエリアを一意に識別する情報である。
映像情報343は、イベント情報に対応する部分映像を連結することにより生成される映像情報である。
制御部350は、映像キャプチャ部351、シュートシーン検出部352、受付部353、抽出部354、連結部355を有する。制御部350は、例えば、ASICや、FPGAなどの集積装置に対応する。また、制御部350は、例えば、CPUやMPU等の電子回路に対応する。
映像キャプチャ部351は、インタフェース部310を介して、カメラ10,20から映像情報を受信する処理部である。映像キャプチャ部351は、カメラ識別情報と、映像情報とを対応付けて、映像テーブル341に格納する。なお、カメラ10,20から取得する映像情報には、映像情報の送信元を示すカメラ識別情報が付与されているものとする。
シュートシーン検出部352は、カメラ25によって撮影された映像情報を基にして、シュートシーンを検出し、シュートを放った選手のエリアを特定する処理部である。シュートシーン検出部352は、シュートシーンを検出した時刻と、シュートを放った選手が位置するエリアを特定するエリア識別情報とを受付部353に出力する。
ここで、シュートシーン検出部352の処理の一例について説明する。図20は、シュートシーン検出部の処理を説明するための図である。シュートシーン検出部352は、選手によってシュートされたボールのみが通過する部分領域40aを画像フレーム40に設定する。例えば、部分領域40aは、バスケットゴール40b周辺に設定される。
シュートシーン検出部352は、部分領域40a内に、ボールが存在するか否かを判定する。例えば、シュートシーン検出部352は、ボールの形状やサイズを定義したテンプレートを用いて、部分領域40aにボールが存在するか否かを判定する。図20に示す例では、シュートシーン検出部352は、部分領域40aから、ボール5を検出する。シュートシーン検出部352は、部分領域40aからボール5を検出すると、ステレオ画像の原理に基づいて、ボール5の3次元座標を算出する。
シュートシーン検出部352は、部分領域40aからボール5を検出すると、シュートシーン検出部352は、画像フレーム40よりも1、2枚前の画像フレーム41を取得し、画像フレーム41から、ボール5を検出する。シュートシーン検出部352は、画像フレーム41から検出したボール5の3次元座標を、ステレオ画像の原理に基づいて算出する。
シュートシーン検出部352は、画像フレーム40で検出したボール5の位置を手がかりとして、画像フレーム41からボール5を検出しても良い。シュートシーン検出部352は、画像フレーム40,41から検出した各ボール5の3次元座標を基にして、ボール5の軌跡5aを推定する。シュートシーン検出部352は、軌跡5aに基づいて、軌跡5aの開始位置6と、ボール5が、開始位置6に存在していた時刻を推定する。この時刻が、シュートシーンを検出した時刻に対応するものとなる。
シュートシーン検出部352は、時刻に対応する画像フレーム42を取得し、開始位置6から、ボール5を検出する。シュートシーン検出部352は、画像フレーム42で検出したボール5の3次元座標を、ステレオ画像の原理に基づいて算出する。シュートシーン検出部352は、ボール5の3次元座標と、予め設定された各エリアA〜Dの範囲を指定する座標とを比較して、開始位置6に対応するエリアを特定することで、エリア識別情報を生成する。
図17の説明に戻る。受付部353は、シュートシーン検出部352がシュートシーンを検出し、シュートシーン検出部352から時刻とエリア識別情報を取得した場合に、イベントが発生したと判定する。受付部353は、シュートシーンを検出した時刻と、エリア識別情報とを対応付けたイベント情報を、イベントテーブル342に格納する。受付部353は、シュートシーン検出部352によって、シュートシーンが検出される度に、イベント情報を、イベントテーブル342に格納する。
抽出部354は、イベントが発生した場合に、イベントが発生したコート20上のエリアを撮影範囲に含むカメラ10を判定し、判定したカメラが撮影した映像情報から、イベントが発生した時刻の部分映像を抽出する処理部である。抽出部354は、抽出した部分映像の情報を、連結部355に出力する。抽出部354は、イベントが発生する度に、上記処理を繰り返し実行する。
例えば、抽出部354は、未選択のイベント情報を、イベントテーブル342から取得し、イベント情報に含まれるエリア識別情報と、映像テーブル341とを比較して、シュートした選手を含むエリアを撮影範囲に含むカメラ10を特定する。
抽出部354は、特定したカメラ10のカメラ識別情報に対応する映像情報を映像テーブル341から取得し、取得した映像情報から部分映像を抽出する。部分映像は、図4で説明したように、イベント情報の時刻tを基準として、時刻t−M(s)〜時刻t+N(s)の映像となる。抽出部354は、イベントテーブル342に格納された各イベント情報に対して、上記処理を繰り返し実行することで、複数の部分映像の情報を抽出し、連結部355に出力する。
連結部355は、抽出部354によって抽出された部分映像を連結することで、映像情報343を生成する処理部である。連結部355は、各部分映像をどのように連結しても良い。例えば、連結部355は、時系列順に、各部分映像を連結しても良い。連結部355は、映像情報343を、記憶部340に格納する。
続いて、本実施例3に係る映像処理装置300の処理手順について説明する。図21は、本実施例3に係る映像処理装置の処理手順を示すフローチャートである。図21に示すように、映像処理装置300のシュートシーン検出部352は、シュートシーンを検出したか否かを判定する(ステップS301)。シュートシーン検出部352は、シュートシーンを検出していない場合には(ステップS301,No)、ステップS301に移行する。シュートシーン検出部352は、シュートシーンを検出した場合には(ステップS301,Yes)、ステップS302に移行する。
映像処理装置300の受付部353は、シュートシーンが検出された場合に、イベント情報を生成し、イベントテーブル342に登録する(ステップS302)。シュートシーン検出部352は、シュートシーンの検出を終了するか否かを判定する(ステップS303)。シュートシーン検出部352は、シュートシーンの検出を終了しない場合には(ステップS303,No)、ステップS301に移行する。シュートシーン検出部352は、シュートシーンの検出を終了する場合には(ステップS303,Yes)、ステップS304に移行する。
映像処理装置300は、抽出部354は、未選択のイベント情報を、イベントテーブル342から選択する(ステップS304)。抽出部354は、イベント情報に対応する部分情報を、映像テーブル341から抽出する(ステップS305)。抽出部354は、全てのイベント情報を選択していない場合には(ステップS306,No)、ステップS304に移行する。
一方、抽出部354は、全てのイベント情報を選択した場合には(ステップS306,Yes)、ステップS307に移行する。映像処理装置300の連結部355は、各部分映像を連結して、映像情報343を生成する(ステップS307)。
次に、本実施例3に係る映像処理装置300の効果について説明する。映像処理装置300は、シュートシーンを検出した場合に、イベントが発生したと判定し、シュートを放った選手のエリアの部分映像を抽出して、映像情報343を生成する。このため、シュートシーンを集めた映像情報を効率的に生成することができる。
図22は、本実施例4に係るシステムの構成を示す図である。図22に示すように、このシステムは、カメラ10a,10bと、映像処理装置400とを有する。カメラ10a,10bと、映像処理装置400とは相互に接続される。実施例4において、以下の説明では、カメラ10a,10bをまとめて、適宜、カメラ10と表記する。
カメラ10は、撮影範囲の映像を撮影し、撮影した映像の情報を、映像処理装置400に送信する装置である。映像の情報は、時刻毎の画像が連続する情報である。以下の説明では、映像の情報を、映像情報と表記する。カメラ10は、各種の競技を行うコート20上に配置される。
カメラ10aは、コート20上のエリアaを撮影範囲に含むカメラである。カメラ10bは、コート20上のエリアbを撮影範囲に含むカメラである。
映像処理装置400は、球技で用いられるボールの位置に着目し、ボールが含まれるエリアを撮影範囲に含むカメラ10の映像を抽出し、抽出した映像を連結する装置である。ここでは一例として、ボールを、バスケットボールとして説明を行うが、これに限定されるものではなく、サッカーボール、バレーボール、水球、ハンドボール等、球技で用いるボール等であれはどのようなボールでも良い。
図23は、本実施例4に係る映像処理装置の処理を説明するための図である。例えば、時刻t1〜t2の間に、エリアaにボールが存在する場合には、映像処理装置400は、時刻t1〜t2の間は、カメラ10aが撮影した部分映像Aを抽出する。
一方、時刻t2〜t3の間に、エリアbにボールが存在する場合には、映像処理装置400は、時刻t2〜t3の間は、カメラ10bが撮影した部分映像Bを抽出する。映像処理装置400は、部分映像Aと部分映像Bとを連結して、映像情報を生成する。
図24は、本実施例4に係る映像処理装置の構成を示す機能ブロック図である。図24に示すように、映像処理装置400は、インタフェース部410と、入力部420と、表示部430と、記憶部440と、制御部450とを有する。
インタフェース部410は、カメラ10と有線または無線によって接続し、データを送受信する処理部である。インタフェース部410は、カメラ10から、映像情報を受信し、受信した映像情報を、映像キャプチャ部451に出力する。
入力部420は、各種の情報を映像処理装置400に入力するための入力装置である。入力部420は、例えば、キーボードやマウス、タッチパネル、入力ボタン等に対応する。
表示部430は、制御部450から出力される情報を表示する表示装置である。例えば、表示部430は、ディスプレイや、タッチパネル等に対応する。
記憶部440は、映像テーブル441、イベントテーブル442、映像情報443を有する。記憶部440は、例えば、RAM、ROM、フラッシュメモリなどの半導体メモリ素子、またはハードディスク、光ディスクなどの記憶装置に対応する。
映像テーブル441は、カメラ10から受信する映像情報を格納するテーブルである。映像テーブル441のデータ構造は、図13で説明した、映像テーブル241と同様であるため、ここでは説明を省略する。
イベントテーブル442は、イベント情報を保持するテーブルである。ここで、本実施例4では、一例として、映像処理装置400は、ボールが位置するエリアに変化が生じたタイミングにおいてに、イベントが発生したと判定する。また、イベント情報は、時間と、エリア識別情報とを対応付けた情報である。イベントテーブル442のデータ構造は、図14で説明したイベントテーブル242と同様にして、時間と、エリア識別情報とを対応付ける。
本実施例4では、時間は、今回のイベントが発生した時刻から、次回のイベントが発生する時刻までの時間を示す情報である。エリア識別情報は、該当する時間において、ボール5が存在するエリアを一意に識別する情報である。
映像情報443は、イベント情報に対応する部分映像を連結することにより生成される映像情報である。
制御部450は、映像キャプチャ部451、位置検出部452、受付部453、抽出部454、連結部455を有する。制御部450は、例えば、ASICや、FPGAなどの集積装置に対応する。また、制御部450は、例えば、CPUやMPU等の電子回路に対応する。
映像キャプチャ部451は、インタフェース部410を介して、カメラ10から映像情報を受信する処理部である。映像キャプチャ部451は、カメラ識別情報と、映像情報とを対応付けて、映像テーブル441に格納する。なお、カメラ10から取得する映像情報には、映像情報の送信元を示すカメラ識別情報が付与されているものとする。
位置検出部452は、ボール5が位置するエリアを検出する処理部である。位置検出部452は、ボール5が位置するエリアを一意に識別するエリア識別情報を、受付部453に出力する。
ここで、位置検出部452は、どのような周知技術を用いて、ボール5が存在するエリアを検出しても良い。例えば、ボール5に信号を発信させる装置を設置しておき、かかる信号を受信する受信機(図示を省略する)を、エリアa側およびエリアb側に配置しておく。位置検出部452は、各受信機とデータ通信を行って、ボール5からの信号強度が大きい受信機が配置された側のエリアに、ボール5が存在すると判定する。また、位置検出部452は、映像テーブルに格納された映像情報とテンプレートマッチングを実行して、ボール5を検出し、ボール5を検出した映像情報を撮影したカメラの撮像範囲となるエリアに、ボール5が存在すると判定しても良い。
受付部453は、位置検出部452からボールが存在するエリアのエリア識別情報を受信し、エリア識別情報が変化した時刻において、イベントの発生を受け付けたと判定する処理部である。受付部453は、イベントの発生を受け付けた場合に、イベント情報を生成し、イベント情報をイベントテーブル442に登録する。イベント情報は、時間と、エリア識別情報とを対応付けた情報である。時間は、今回のイベントが発生した時刻から、次回のイベントが発生する時刻までの時間を示す情報である。エリア識別情報は、該当する時間において、ボール5が存在するエリアを一意に識別する情報である。なお、受付部453は、一回目のイベントの発生を受け付けた場合には、次のイベントが発生するまで、イベント情報を生成する処理を待機する。
抽出部454は、イベントが発生した場合に、イベントが発生したコート20上のエリアを撮影範囲に含むカメラ10を判定し、判定したカメラが撮影した映像情報から、イベントが発生した時間の部分映像を抽出する処理部である。抽出部454は、抽出した部分映像の情報を、連結部455に出力する。抽出部454は、イベントが発生する度に、上記処理を繰り返し実行する。
例えば、抽出部454は、未選択のイベント情報を、イベントテーブル442から取得する。抽出部454は、イベント情報に含まれるエリア識別情報に対応する映像情報を、映像テーブルから取得する。また、抽出部454は、取得した映像情報から、イベント情報に含まれる時間の部分映像を抽出する。抽出部454は、イベントテーブル442に格納された各イベント情報に対して、上記処理を繰り返し実行することで、複数の部分映像の情報を抽出し、連結部455に出力する。
連結部455は、抽出部454によって抽出された部分映像を連結することで、映像情報443を生成する処理部である。連結部455は、各部分映像をどのように連結しても良い。例えば、連結部455は、時系列順に、各部分映像を連結しても良い。連結部455は、映像情報443を、記憶部440に格納する。
続いて、本実施例4に係る映像処理装置400の処理手順について説明する。図25は、本実施例4に係る映像処理装置の処理手順を示すフローチャートである。図25に示すように、映像処理装置400の受付部453は、ボール5の存在するエリアのエリア識別情報を受け付ける(ステップS401)。受付部453は、ボールの存在するエリアのエリア識別情報を基にして、イベント情報を生成し、イベントテーブル442を更新する(ステップS402)。
受付部453は、イベントテーブル442の更新を終了するか否かを判定する(ステップS403)。受付部453は、イベントテーブル442の更新を終了しない場合には(ステップS403,No)、ステップS402に移行する。受付部453は、イベントテーブル442の更新を終了する場合には(ステップS403,Yes)、ステップS404に移行する。
映像処理装置400の抽出部454は、未選択のイベント情報を、イベントテーブル442から選択する(ステップS404)。抽出部454は、イベント情報に対応する部分情報を、映像テーブル441から抽出する(ステップS405)。抽出部454は、全てのイベント情報を選択していない場合には(ステップS406,No)、ステップS404に移行する。
一方、抽出部454は、全てのイベント情報を選択した場合には(ステップS406,Yes)、ステップS407に移行する。映像処理装置400の連結部455は、各部分映像を連結して、映像情報443を生成する(ステップS407)。
次に、本実施例4に係る映像処理装置400の効果について説明する。映像処理装置400は、ボールが存在するエリアに変化が生じた時刻において、イベントが発生したと判定し、エリアa、bのうち、ボールの存在するエリアの部分映像を抽出して、映像情報443を生成する。このため、ボールを常時捉えた映像情報を効率的に生成することができる。
なお、上記の実施例4では、ボール5が存在するエリアのエリア識別情報を判定して、映像情報を生成する場合について説明したが、これに限定されるものではない。例えば、映像処理装置400は、特定の選手が存在するエリアのエリア識別情報を判定して、映像情報を生成しても良い。特定の選手が存在するエリアは、ボール5を検出する場合と同様にして判定すればよい。このような処理を実行することで、着目する選手を常時捉えた映像情報を効率的に生成することができる。
次に、上記実施例に示した映像処理装置100〜400と同様の機能を実現する映像処理プログラムを実行するハードウェア構成の一例について説明する。図26は、映像処理プログラムを実行するハードウェア構成の一例を示す図である。
図26に示すように、コンピュータ500は、各種演算処理を実行するCPU501と、ユーザからのデータの入力を受け付ける入力装置502と、ディスプレイ503とを有する。また、コンピュータ500は、記憶媒体からプログラム等を読み取る読み取り装置504と、ネットワークを介して他のコンピュータとの間でデータの授受を行うインタフェース装置505とを有する。また、コンピュータ500は、各種情報を一時記憶するRAM506と、ハードディスク装置507とを有する。そして、各装置501〜507は、バス508に接続される。
ハードディスク装置507は、受付プログラム507a、抽出プログラム507b、連結プログラム507cを有する。CPU501は、受付プログラム507a、抽出プログラム507b、連結プログラム507cを読み出してRAM506に展開する。
受付プログラム507aは、受付プロセス506aとして機能する。抽出プログラム507bは、抽出プロセス506bとして機能する。連結プログラム507cは、連結プロセス506cとして機能する。
例えば、受付プロセス506aの処理は、受付部153,252,353,453の処理に対応する。抽出プロセス506bの処理は抽出部154,253,354,454の処理に対応する。連結プロセス506cの処理は、連結部155,254,355,455の処理に対応する。
なお、受付プログラム307a、抽出プログラム307b、連結プログラム307cについては、必ずしも最初からハードディスク装置507に記憶させておかなくても良い。例えば、コンピュータ500に挿入されるフレキシブルディスク(FD)、CD−ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に各プログラムを記憶させておく。そして、コンピュータ500が各プログラム507a〜507cを読み出して実行するようにしてもよい。
以上の各実施例を含む実施形態に関し、さらに以下の付記を開示する。
(付記1)複数のカメラによってそれぞれ異なる領域が撮影される競技エリアでイベントが発生したか否かの情報を受け付ける受付部と、
前記イベントが発生した際に、前記イベントが発生した前記競技エリア上の領域を撮影範囲に含むカメラを判定し、判定したカメラが撮影した映像情報から前記イベントが発生した時刻の部分映像を抽出する抽出部と
を有することを特徴とする映像処理装置。
(付記2)前記抽出部は、前記イベントが発生する度に、前記部分映像を抽出する処理を繰り返し実行し、前記抽出部によって抽出された複数の部分映像を連結して記憶部に格納する連結部を更に有することを特徴とする付記1に記載の映像処理装置。
(付記3)前記受付部は、選手を識別する選手識別情報と、選手の行動を識別する行動識別情報と、前記選手が行動を行った時刻とを対応付けた情報を受け付けた場合に、前記選手識別情報の選手が存在する領域において、前記イベントが発生したと判定することを特徴とする付記2に記載の映像処理装置。
(付記4)前記受付部は、前記競技エリアを複数の領域に分割し、複数の領域に含まれる選手の数の大小関係に変化が生じた場合に、前記複数の領域のうち、最も選手の数が多い領域において、前記イベントが発生したと判定することを特徴とする付記1または2に記載の映像処理装置。
(付記5)前記受付部は、シュートシーンが発生した場合に、イベントが発生したと判定することを特徴とする付記1または2に記載の映像処理装置。
(付記6)前記受付部は、前記競技エリアを複数の領域に分割し、ボールが存在する領域が変化した場合に、前記ボールが移動した先の領域において、前記イベントが発生したと判定することを特徴とする付記1または2に記載の映像処理装置。
(付記7)前記受付部は、前記競技エリアを複数の領域に分割し、指定選手が存在する領域が変化した場合に、前記選手が移動した先の領域において、前記イベントが発生したと判定することを特徴とする付記1または2に記載の映像処理装置。
(付記8)コンピュータが実行する映像処理方法であって、
複数のカメラによってそれぞれ異なる領域が撮影される競技エリアでイベントが発生したか否かの情報を受け付け、
前記イベントが発生した際に、前記イベントが発生した前記競技エリア上の領域を撮影範囲に含むカメラを判定し、判定したカメラが撮影した映像情報から前記イベントが発生した時刻の部分映像を抽出する
処理を実行することを特徴とする映像処理方法。
(付記9)前記イベントが発生する度に、前記部分映像を抽出する処理を繰り返し実行し、前記抽出部によって抽出された複数の部分映像を連結して記憶部に格納する処理を更に実行することを特徴とする付記8に記載の映像処理方法。
(付記10)前記受け付ける処理は、選手を識別する選手識別情報と、選手の行動を識別する行動識別情報と、前記選手が行動を行った時刻とを対応付けた情報を受け付けた場合に、前記選手識別情報の選手が存在する領域において、前記イベントが発生したと判定することを特徴とする付記9に記載の映像処理方法。
(付記11)前記受け付ける処理は、前記競技エリアを複数の領域に分割し、複数の領域に含まれる選手の数の大小関係に変化が生じた場合に、前記複数の領域のうち、最も選手の数が多い領域において、前記イベントが発生したと判定することを特徴とする付記8または9に記載の映像処理方法。
(付記12)前記受け付ける処理は、シュートシーンが発生した場合に、イベントが発生したと判定することを特徴とする付記8または9に記載の映像処理方法。
(付記13)前記受け付ける処理は、前記競技エリアを複数の領域に分割し、ボールが存在する領域が変化した場合に、前記ボールが移動した先の領域において、前記イベントが発生したと判定することを特徴とする付記8または9に記載の映像処理方法。
(付記14)前記受け付ける処理は、前記競技エリアを複数の領域に分割し、指定選手が存在する領域が変化した場合に、前記選手が移動した先の領域において、前記イベントが発生したと判定することを特徴とする付記8または9に記載の映像処理方法。
(付記15)コンピュータに、
複数のカメラによってそれぞれ異なる領域が撮影される競技エリアでイベントが発生したか否かの情報を受け付け、
前記イベントが発生した際に、前記イベントが発生した前記競技エリア上の領域を撮影範囲に含むカメラを判定し、判定したカメラが撮影した映像情報から前記イベントが発生した時刻の部分映像を抽出する
処理を実行させることを特徴とする映像処理プログラム。
(付記16)前記イベントが発生する度に、前記部分映像を抽出する処理を繰り返し実行し、抽出部によって抽出された複数の部分映像を連結して記憶部に格納する処理を更に実行させることを特徴とする付記15に記載の映像処理プログラム。
(付記17)前記受け付ける処理は、選手を識別する選手識別情報と、選手の行動を識別する行動識別情報と、前記選手が行動を行った時刻とを対応付けた情報を受け付けた場合に、前記選手識別情報の選手が存在する領域において、前記イベントが発生したと判定することを特徴とする付記16に記載の映像処理プログラム。
(付記18)前記受け付ける処理は、前記競技エリアを複数の領域に分割し、複数の領域に含まれる選手の数の大小関係に変化が生じた場合に、前記複数の領域のうち、最も選手の数が多い領域において、前記イベントが発生したと判定することを特徴とする付記15または16に記載の映像処理プログラム。
(付記19)前記受け付ける処理は、シュートシーンが発生した場合に、イベントが発生したと判定することを特徴とする付記15または16に記載の映像処理プログラム。
(付記20)前記受け付ける処理は、前記競技エリアを複数の領域に分割し、ボールが存在する領域が変化した場合に、前記ボールが移動した先の領域において、前記イベントが発生したと判定することを特徴とする付記15または16に記載の映像処理プログラム。
(付記21)前記受け付ける処理は、前記競技エリアを複数の領域に分割し、指定選手が存在する領域が変化した場合に、前記選手が移動した先の領域において、前記イベントが発生したと判定することを特徴とする付記15または16に記載の映像処理プログラム。
100,200,300,400 映像処理装置
110,210,310,410 インタフェース部
120,220,320,420 入力部
130,230,330,430 表示部
140,240,340,440 記憶部
150,250,350,450 制御部

Claims (8)

  1. 複数のカメラによってそれぞれ撮影された映像情報を、前記カメラを識別する識別情報と対応付けてテーブルに格納する取得部と、
    前記複数のカメラによってそれぞれ異なる領域が撮影される競技エリアでイベントが発生したか否かの情報を受け付ける受付部と、
    前記イベントが発生した際に、前記イベントが発生した前記競技エリア上の領域を撮影範囲に含むカメラの識別情報を複数の識別情報の中から判定し、判定した識別情報に対応する映像情報について、前記イベントが発生した時刻を基準とする所定時間の部分映像を前記テーブルから抽出する処理を、前記イベントが発生する度に繰り返し実行する抽出部と
    前記部分映像を抽出する処理を繰り返し実行し、前記抽出部によって抽出された複数の部分映像を連結して記憶部に格納する連結部と
    を有することを特徴とする映像処理装置。
  2. 前記受付部は、選手を識別する選手識別情報と、選手の行動を識別する行動識別情報と、前記選手が行動を行った時刻とを対応付けた情報を受け付けた場合に、前記選手識別情報の選手が存在する領域において、前記イベントが発生したと判定することを特徴とする請求項に記載の映像処理装置。
  3. 前記受付部は、前記競技エリアを複数の領域に分割し、複数の領域に含まれる選手の数の大小関係に変化が生じた場合に、前記複数の領域のうち、最も選手の数が多い領域において、前記イベントが発生したと判定することを特徴とする請求項1または2に記載の映像処理装置。
  4. 前記受付部は、シュートシーンが発生した場合に、イベントが発生したと判定することを特徴とする請求項1または2に記載の映像処理装置。
  5. 前記受付部は、前記競技エリアを複数の領域に分割し、ボールが存在する領域が変化した場合に、前記ボールが移動した先の領域において、前記イベントが発生したと判定することを特徴とする請求項1または2に記載の映像処理装置。
  6. 前記受付部は、前記競技エリアを複数の領域に分割し、指定選手が存在する領域が変化した場合に、前記指定選手が移動した先の領域において、前記イベントが発生したと判定することを特徴とする請求項1または2に記載の映像処理装置。
  7. コンピュータが実行する映像処理方法であって、
    複数のカメラによってそれぞれ撮影された映像情報を、前記カメラを識別する識別情報と対応付けてテーブルに格納し、
    前記複数のカメラによってそれぞれ異なる領域が撮影される競技エリアでイベントが発生したか否かの情報を受け付け、
    前記イベントが発生した際に、前記イベントが発生した前記競技エリア上の領域を撮影範囲に含むカメラの識別情報を複数の識別情報の中から判定し、判定した識別情報に対応する映像情報について、前記イベントが発生した時刻を基準とする所定時間の部分映像を前記テーブルから抽出する処理を、前記イベントが発生する度に繰り返し実行し、
    前記部分映像を抽出する処理を繰り返し実行し、抽出された複数の部分映像を連結して記憶部に格納する
    処理を実行することを特徴とする映像処理方法。
  8. コンピュータに、
    複数のカメラによってそれぞれ撮影された映像情報を、前記カメラを識別する識別情報と対応付けてテーブルに格納し、
    前記複数のカメラによってそれぞれ異なる領域が撮影される競技エリアでイベントが発生したか否かの情報を受け付け、
    前記イベントが発生した際に、前記イベントが発生した前記競技エリア上の領域を撮影範囲に含むカメラの識別情報を複数の識別情報の中から判定し、判定した識別情報に対応する映像情報について、前記イベントが発生した時刻を基準とする所定時間の部分映像を前記テーブルから抽出する処理を、前記イベントが発生する度に繰り返し実行し、
    前記部分映像を抽出する処理を繰り返し実行し、抽出された複数の部分映像を連結して記憶部に格納する
    処理を実行させることを特徴とする映像処理プログラム。
JP2016044896A 2016-03-08 2016-03-08 映像処理装置、映像処理方法および映像処理プログラム Active JP6720587B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016044896A JP6720587B2 (ja) 2016-03-08 2016-03-08 映像処理装置、映像処理方法および映像処理プログラム
US15/425,290 US10600444B2 (en) 2016-03-08 2017-02-06 Video image processing device, video image processing method, and non-transitory computer-readable recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016044896A JP6720587B2 (ja) 2016-03-08 2016-03-08 映像処理装置、映像処理方法および映像処理プログラム

Publications (2)

Publication Number Publication Date
JP2017163286A JP2017163286A (ja) 2017-09-14
JP6720587B2 true JP6720587B2 (ja) 2020-07-08

Family

ID=59787044

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016044896A Active JP6720587B2 (ja) 2016-03-08 2016-03-08 映像処理装置、映像処理方法および映像処理プログラム

Country Status (2)

Country Link
US (1) US10600444B2 (ja)
JP (1) JP6720587B2 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6911392B2 (ja) * 2017-03-07 2021-07-28 カシオ計算機株式会社 画像取得装置、画像取得方法、プログラム及び画像取得システム
JP6962145B2 (ja) * 2017-11-13 2021-11-05 富士通株式会社 画像処理プログラム、画像処理方法および情報処理装置
JP6371020B1 (ja) * 2018-01-31 2018-08-08 株式会社Nttドコモ 情報処理装置
JP6996384B2 (ja) * 2018-03-27 2022-01-17 富士通株式会社 表示プログラム、表示方法および表示装置
CN110675426B (zh) * 2018-07-02 2022-11-22 百度在线网络技术(北京)有限公司 人体跟踪方法、装置、设备及存储介质
JP7180519B2 (ja) * 2019-04-17 2022-11-30 株式会社Jvcケンウッド 映像データ処理装置、映像データ処理システム、チャット表示方法、及び映像データ処理プログラム
WO2021162305A1 (ko) * 2020-02-15 2021-08-19 김지훈 스포츠 동영상 기반 플랫폼 서비스를 제공하는 서버의 동작 방법
JP7402078B2 (ja) * 2020-02-20 2023-12-20 株式会社Nttドコモ シュート推定システム
JP2024091071A (ja) * 2022-12-23 2024-07-04 キヤノン株式会社 情報処理装置、撮像装置、情報処理方法、及びコンピュータプログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3631266B2 (ja) 1994-05-13 2005-03-23 株式会社応用計測研究所 移動物体の計測装置
US8087054B2 (en) 2002-09-30 2011-12-27 Eastman Kodak Company Automated event content processing method and system
JP2005167517A (ja) 2003-12-01 2005-06-23 Olympus Corp 画像処理装置、画像処理装置のキャリブレーション方法及び画像処理プログラム
JP4893641B2 (ja) * 2007-02-19 2012-03-07 株式会社Jvcケンウッド ダイジェスト生成装置及びダイジェスト生成方法
US20080201379A1 (en) 2007-02-19 2008-08-21 Victor Company Of Japan, Ltd. Method and apparatus for generating digest of captured images
US8976613B2 (en) * 2013-07-23 2015-03-10 Taiwan Semiconductor Manufacturing Company Ltd. Differential current sensing scheme for magnetic random access memory
JP6354229B2 (ja) 2014-03-17 2018-07-11 富士通株式会社 抽出プログラム、方法、及び装置
US10019806B2 (en) * 2015-04-15 2018-07-10 Sportsmedia Technology Corporation Determining x,y,z,t biomechanics of moving actor with multiple cameras

Also Published As

Publication number Publication date
US20170263285A1 (en) 2017-09-14
US10600444B2 (en) 2020-03-24
JP2017163286A (ja) 2017-09-14

Similar Documents

Publication Publication Date Title
JP6720587B2 (ja) 映像処理装置、映像処理方法および映像処理プログラム
EP3734551A1 (en) Extraction program, extraction method, and information processing device
US20170171570A1 (en) Information processing apparatus, information processing method, and computer-readable storage medium
US10382704B2 (en) Image processing device that generates a composite image
JP6260292B2 (ja) 情報処理プログラム、方法、及び装置、並びに野球映像メタ情報作成装置、方法、及びプログラム
US20210168411A1 (en) Storage medium, video image generation method, and video image generation system
US10950276B2 (en) Apparatus and method to display event information detected from video data
KR101701632B1 (ko) 판정 방법 및 장치
US11749309B2 (en) Information processor, information processing method, and program
JP7113336B2 (ja) プレイ分析装置、及び、プレイ分析方法
JP7113335B2 (ja) プレイ分析装置、及び、プレイ分析方法
JP2015217122A (ja) 画像報知装置、撮像装置、画像報知方法及び画像報知プログラム
JP7357258B2 (ja) 球技映像解析装置、球技映像解析方法、及び、コンピュータプログラム
JP2010034699A (ja) 放送送信装置および放送受信装置および放送送受信システム
WO2020071092A1 (ja) プレイ分析装置、及び、プレイ分析方法
JP7442089B2 (ja) 球技映像解析装置、球技映像解析方法、及び、コンピュータプログラム
JP6965975B2 (ja) 映像処理装置、マルチカメラシステム、映像処理方法、及び映像処理プログラム
JP6303525B2 (ja) 抽出プログラム、方法、及び装置、並びに野球映像メタ情報作成装置、方法、及びプログラム
JP7429887B2 (ja) 球技映像解析装置、球技映像解析方法、及び、コンピュータプログラム
JP6766707B2 (ja) 映像処理装置、マルチカメラシステム、映像処理方法、及び映像処理プログラム
CN114500981B (zh) 一种场馆目标追踪方法、装置、设备及介质
CN113542774B (zh) 视频同步方法、装置、电子设备及存储介质
WO2023106201A1 (ja) プレイ分析装置、プレイ分析方法、及びコンピュータ読み取り可能な記録媒体
JP7304747B2 (ja) 画像処理装置、制御方法及び制御プログラム
CN115529468A (zh) 一种特定场景下的对象特写切换方法、装置及电子设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181112

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190626

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190716

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190826

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191008

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200519

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200601

R150 Certificate of patent or registration of utility model

Ref document number: 6720587

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150